Google的搜索渠道介绍:Search Funnel

新年伊始,Google在AdWords工具里面添加了一个新的功能:Search Funnel。搜索渠道/漏斗(Search Funnel)提供了一套关于用户点击和观看广告印象(impression)直至转化行为产生的用户行为数据报表。

在AdWords工具里,转化行为被归功于最后一次广告点击,但Search Funnel提供了更多的信息来帮助广告主理解其他点击/广告印象是如何影响用户做出相关行为的。

在哪里找到Search Funnel报表?

image

登陆AdWords账户后,你可在转化报表(Conversion)里找到。

你可以获得什么样的报表?

Search Funnel提供了八种报表。每种报表都提供了跟点击数或广告印象数的“点击-转化”的数据,以及用户在多久时间内发生转化行为。

概述 Top Conversions:显示AdWords账户里德所有转化行为。

间接点击次数和展示次数 Assist Clicks and Impressions:显示被展示但未被点击的广告,也就是“assist impressions”。点击数也是类似。这些广告展示/点击在早期购买环节中吸引了客户的关注,但由其他点击带来了转化行为。

间接转化次数 Assisted Conversions:转化行为的最后一次点击,和支持这种转化行为产生的点击,可按营销活动、广告组合关键词分别查看。

首次/最终点击分析 First, Last Click Analysis:显示每一次营销活动、广告组或关键词的第一次点击或最后点击所产生的转化数量。

最佳路径 Top Paths:针对每次营销活动、广告组或关键词,显示转常见的转化路径,包括首次/最终点击。

转化耗时/路径长度 Time Lag, Path Length:显示用户点击广告后,用了多长时间来产生转化行为。“路径长度”报告显示用户发生转化行为的平均点击/展示数。“转化耗时”显示用户在点击广告后,用了多长时间发生转化行为。

如何运用这些报表来改善转化率?

路径长度报表

image

“路径长度”报告显示了用户发生一次转化行为的平均点击/展示数。

在上例中,这一报表显示客户目标群中有很大比例(大约46%)在第一次点击广告时没有发生转化。在2次或更多次点击后,客户才发生转化行动。

转化耗时报表

image

转化耗时报表显示用户发生转化行为,平均要多长时间。这些数据可以按天或小时来统计。

图例中,用户在首次点击后,平均要3天时间才会产生转化行为。大约72%的用户会在广告点击的一天内发生转化。然而,这意味着28%的用户要花更长时间才会转化。

就案例中广告主而言,点击路径和点击耗时似乎还可以接受。因为广告主销售价格较高的高档健身设备,消费者通常不会一时脑热就做出购买决定的。

这些数据并未发出警示信号。消费者就是会花上一些时间来考虑是否要最终购买。但我们依然可以做一些工作去缩短点击路径和耗时,更早的劝服消费者购买。

如果广告主销售的是一些低价产生,或者转化行为就是填写一份联系人表格,那这些数据就提示,网站并没有很好的、尽快的抓住目标群体的兴趣和注意力(如果用户要花三天来填写一份表格,那就是大问题了)。这样,就可以判断着陆页(landing page)并没有发挥良好效果,促使用户采取行动。

Posted in 广告和文案, 消费者行为 | Tagged , , , , , , , | Leave a comment

2010基于实验研究的10大可用性发现

1. 5 Second Usability Tests: Ratings of website usability after only 5 seconds are the same as those after 10 minutes.

五秒钟可用性测试:仅花5秒钟测试时间就对网站可用性进行评分,结果跟10分钟的测试结果一样。

2. Unmoderated Usability Data is Mostly Reliable: Data from remote usability test takers is rather similar to lab based studies except for task-times which differ more substantially.

没有主持人的可用性数据更加可靠:从远程可用性测试参与者身上获取的数据,跟基于实验室的研究结果非常相近,除了任务时间有明显差异。

3. Cheaters: Around 10% of paid usability testers will cheaton your test by rushing through the questions just to receive the honorarium.

礼金骗子:大约10%的付费可用性测试参与者会急匆匆的完成测试问题,在测试中进行欺骗,只是为了获得测试礼金而已。

4. The Geometric Mean works better than the median for reporting the best middle task time for sample sizes less than 25.

对于测试样本低于25以下时,几何平均值比中位数能更好的报告最佳任务完成时间中间值。

5. Usability accounts for at least 30% of customer loyalty: Net Promoter Scores correlate highlywith scores from the System Usability Scale (SUS).

可用性至少会影响30%的客户忠诚度:净推荐者值跟系统可用性评分(SUS)具有高度相关性。

6. Users Self-Reporting Problems: Users are able to find and report around 50% of the problems usability professionals find. Just asking users to report what problems they encountered, how severe they are and potential fixes can be a cheap and effective complement to other usability activities.

用户自我报告问题:用户能发现和报告大约50%由可用性专家发现的问题。只需要询问用户来报告他们所遭遇的问题,这些问题有多严重和可能需要修改的地方,这是对其他可用性研究活动的一种廉价和有效的补充。

7. Survey respondents prefer the left-side of the rating scale. The way you order your response options matters. People generally lean toward responses that are on the left-side. If you have more favorable responses (e.g. Strongly Agree) on the left you’ll get a slightly inflated score.

调查问卷填写者偏好左侧的评分表。你的问题选项顺序至关重要。人们通常倾向于左侧的问题选项。如果你把好的选项放在左侧(例如,非常同意),那你将获得轻微高估的评分。

8. Asking users to rate task-ease during a task lowers ratings: If you give users only five seconds to complete a task they will rate the task as much more difficult than those who are given no time limit. Contrast this finding with the 5 seconds tests results which shows that user attitudes about usability are different at the task vs. whole website level.

在任务过程中让用户对任务难易度进行评分,会降低评分。如果你只给用户五秒钟来完成一项任务,相比无时间限制的任务,他们会把前项任务评为非常难。把这一发现跟五秒钟测试进行对比,结果显示用户对可用性的态度,在任务级别和整个网站级别上会存在差异。

9. Making survey questions more extreme will generate more disagreement: Scores will be higher if questions are all extremely negatively worded and scores will be lower if all the questions are extremely positively worded.

调查问卷越极端,会产生更多的不赞同结果:如果问题的措辞极端负面,得分会更高;如果问题措辞极端正面,得分会低一些。

10. Usability problems are almost 10-times more common on business applications than on websites.

商务应用上的可用性问题比网站要多上十倍。

资料来源:http://www.measuringusability.com/blog/top-2010.php

Posted in 可用性测试 | Tagged , , | Leave a comment

完美着陆页剖析

LandingPage-Infographic

http://www.formstack.com/the-anatomy-of-a-perfect-landing-page

  1. 页面标题和文案
    1. 着陆页(landing page)标题和广告文案应互为补充
    2. 广告词(AdWords)得分可让网站了解每点击成本。一致连贯的广告信息和着陆页文字能提高这一得分。
  2. 清晰和简洁的标题
    1. 作为访问者首先会阅读的内容之一,着陆页标题不应含糊或令人感觉乏味,而是促进访问者的阅读兴趣。
    2. 通过对网站相关内容的某个卖点进行声明,将比模糊无趣的标题更能捕获读者的注意力。
  3. 无错误的语法
    1. 在线零售商想要访问者购买并提供个人和支付信息,如果网站存在糟糕的语法错误或错别字,将会极大的损害客户的信任感。
  4. 充分利用信任指示器
    1. 要有效的建立起信任感,把公司证明,媒体报道,保障标签,和第三方信任和安全认证标识都展示出来。
  5. 使用强烈的行动呼吁(Call to action)
    1. 当访问者阅读着陆页标题后,需要让他们知道下一步该做什么。
  6. 按钮和行动呼吁应该醒目
    1. 找出可能吸引人们来到你的网站的关键词,譬如“免费”、“全新”,“购买”或“立即下载”。
    2. 转化按钮应该醒目,位置要正好在行动呼吁口号下面,或者把行动呼吁口号作为按钮。无论如何,按钮应该要大、明亮、出现在首屏。
    3. 黄色或橘黄色按钮的行动呼吁能吸引阅读者的眼球。
  7. 链接要少
    1. 如果链到其他网站或页面的链接过多,会分散访问者的注意力,对转化造成负面影响。
    2. 正常首页上有很多链接,这是没问题的,但在着陆页上简约是王道。
  8. 使用跟文案相关的图片和视频
    1. 在首页部署动画式的会话,用户证言视频,产品图片能对读者产生正面影响,以及给购物者而外的推动力来进一步了解产品。
  9. 让信息保持在首屏上
    1. 访问者不需要拖动滚动条即可看到的网页部分,是网页最重要内容应该出现的位置。
    2. 在首屏和读者眼球能扫描到的地方放置行动呼吁按钮。永远不要把这个按钮放在要搜寻才能看到的地方。
  10. 不断的进行测试
    1. 对着陆页进行优化来进行持续转化。进行A/B测试,更换文案、图片、行动呼吁来看哪一种最能引起用户的共鸣。
    2. 除了A/B测试,测试两个完全不同的网站设计来相互比较,这能对长期运营带来好处。(A/B测试是一种针对单一变量的基准控制抽样测试,来提高响应率。)
Posted in 网站设计 | Tagged , , , | Leave a comment

Sherpa 2010邮件营销奖图鉴:消费类

http://www.marketingsherpa.com/article.php?ident=31524

Sherpa营销咨询公司每年会举办一次邮件营销大奖的评选活动。

评选标准,最主要的就是营销活动的绩效指标,营销活动的战略和策略也在评选指标范畴之类,譬如是否进行了高级细分,个性化,使用动态内容,社会媒体集成,以及邮件内容设计中的创意。基于这些指标,评选了“金、银和荣誉提名”奖。

1、最佳电子邮件列表

消费类金奖

Indiana Office of Tourism Development

获奖原因:

Indiana Tourism团队需要振兴他们的邮件列表。每月他们会发送一份手册式促销(brochure offers)、旅游点子和竞赛活动,但只有可怜的13.5%的开信率和4.8%的点击率。所以他们做了一件明智的事情,询问读者他们想要什么。问卷调查解释了一个简洁的细分策略——订阅者典型的对三件事感兴趣:折扣和交易;大型活动和节庆日;或者旅游点子。

作为响应,他们创建了三个全新的、主题明确的电子邮件列表:“the big deal (旅游折扣)”,“The Big To-Do (节庆和活动)”和“The Big Idea(旅游点子)”。

结果呢?三类全新、目标明确的邮件列表平均开信率提高了68%-262%:

o Big Idea, 22.7% open rate
o Big Deal, 48.8% open rate
o Big To-Do 47.4% open rat

 

点击率提高了898%-1,208%

o Big Idea, 47.9% CTR
o Big Deal, 60.1% CTR 
o Big To-Do, 62.8% CT

点评:

邮件列表容量进行了缩减,聚焦于最忠实的受众群,这样发送成本就得到了削减。产出:新邮件营销活动,让更多的人固定访问网站,从而让更多的人来这个州旅游,提高了印第安纳州的游客消费和经济增长,实现了其使命。

image

消费类银奖 The Orange County Register – OC Moms newsletter

获奖原因:

对于身陷困境的新闻报纸行业来说,这提供了一个跟读者保持相关联的卓越案例。The OC Register的邮件列表主要是家庭为导向的内容,把定位狭窄放在单一的人口统计群体上:妈妈们。邮件列表混合了产品评论、新文章、博客、竞赛、家庭活动列表等,吸引了妈妈们来不断阅读和点击。例如,一期邮件列表就产生了35.46%的开信率和18.03%的点击率。

点评:

通过邮件推送文章链接,这些邮件订阅群体更可能成为网站的忠实用户,产生了更好的每次访问页面浏览量。除了带来更多流量,邮件列表也通过赞助广告位来获得收入。

image

Posted in Uncategorized | Leave a comment

Kinect Gestural UI:第一印象

Jakob Nielsen 的Alertbox最新文章,对微软最新体感游戏机的Kinect 的“姿势用户界面 gestural UI”进行可用性评论。

http://www.useit.com/alertbox/kinect-gesture-ux.html

总结:

不一致的姿势,看不见的命令,被忽略的警告,尴尬的对话确认。但是玩起来挺有趣。

Kinect通过摄像头来捕捉和识别用户不同身体部位做出的姿势,包括手、臂和腿,以及一般性姿势。Kinect提供了前所未有的更加高级的基于姿势的用户体验,这是此前在除高级研究实验室外其他系统上所未有的。早在1985年的一些前沿学术大会上,就有类似的交互界面出现。考虑到它的低价位,跟数以百万美元计的研究系统相比,仅售150美金的Kinect的确是一项令人惊讶的进步。

但另一方面,姿势UI在研究和实践领域的25年时滞则略比通常HCI研究发展的命运要差上一些。例如,Doug Engelbart在1964年发明鼠标,到首次基于鼠标的电脑商业化(1984年)之间有20年的时滞。

基于姿势的界面 = 可用性弱点

Kinect上出现了很多Don Norman和Nielsen在《姿势交互界面可用性问题》一文中所分析的问题。

可见性

一些选项显示为外部菜单,从而让它们可见。但在玩游戏时,屏幕上并没有太多的外显的示能性(affordances)让你进行可能的操作。用户被迫在游戏前去“记住操作指示”。(尽管,一条关键的人因原则就是要减少极度容易犯错的人脑记忆。)

例如,在Kinect Sports里面,你如何知道去往上跳来完成跳远的动作呢,尽管这是一个完全不符合逻辑的动作(跳高则是一个比较合理的动作)?当然,这是你在进入运动场之前所要阅读的须知。

image

在使用这一界面前,请阅读手册

Kinect还展示了另一种可见性问题:屏幕上的警告很容易被忽略,因为用户的注意力集中到别的地方去了。这在移动触摸界面上很少会发生,因为小屏幕上弹出任何东西都会被人们看到。相反,在拥挤的网页上,用户经常会忽略错误提示消息。

在Kinect上,用户不是因为拥挤的信息而忽略信息,而是由于聚精会神的动作。例如,在观察用户玩 Kinect Adventures 游戏时,经常看到左上方有一个警告信息告知用户移动到地面的另一边,但游戏玩家却没有这么做。他们看着游戏中的虚拟人物(avatar)和游戏场地,并没有注意到角落里UI元素。

类似的,在 Your Shape: Fitness Evolved 游戏中有一个相对不太严重的类似问题。当你努力完成一项艰难的有氧运动项目时,角落里正在倒计时,但你倾向于关注在训练员上跟随他的动作。

反馈

相对于可见性的缺乏,要了解为什么特定动作有一些特定效果则有些困难,因为基本上没有什么直接的反馈。在乒乓球游戏中,用球板做出一个劈杀动作时,你能得到即时的反馈显示你是否“击中”球。但要弄明白为什么你有时能劈杀成功,则就比较困难了。当然,这并不只取决于手部运动的速度。

其他时候,Kinect基于对用户行为的直接观察来给出很好的反馈。在 Dance Cenral游戏里,你跟随屏幕上的舞者运动时,她们的身体部位会闪亮来指示你动作上的失误。这种反馈很不错(并且打扰性也少),比语音提示“把你的左臂太高”好。

一致性和标准

对于姿势交互并没有什么普遍适用的标准,这本身就是一个问题,因为交互界面不能依靠经学习的行为(cannot rely on learned behavior)。Kinect有一些系统范围的标准,的确很对用户有所帮助。

例如,有一个标准的暂停游戏的方式来调处菜单:站立,右手臂垂直,左手臂呈45度角。这肯定不是一个自然姿势,事实上,选择这个姿势,很可能是它绝不会出现在正常的游戏中。

暂停姿势成为了用户的救生索,但其他一般性的命令则没什么标准了,例如“返回”。用户要用UI来导航则很有困难,因为他们每次都需要去弄明白这些基本操作。在不同的游戏做,同样的事情要用不同的姿势来完成,用户从中学不到什么。

image

右上方的“返回”,通过在按钮上握住手悬停来激活

image

左下方的“返回”,通过左手向右挥来激活

至少,你可以看到设计师们做过一些可用性测试:他们通过在UI上贴上“邦迪”来告知用户 Dance Central 游戏中不一致的“返回”命令。无论何时,你不得不去对一个图形交互界面(GUI)进行解释时,这可能就已经错了。

在Kinect Sports里面,不同的动作被用来投掷保龄球、铁饼和标枪,不同的动作被用来扣杀乒乓球和踢足球。然而,这种游戏间的不一致性还不算什么问题,因为设计体现着外部一致性:游戏姿势类似于真实世界的这些行为。

可靠性和事故激发

Kinect通常能防止激发事故,这在测试移动设备时会经常遇到。如果你的手指刷过手机或iPad上的什么东西,你就跳到别的地方去了——通常你还不知道这一切是怎么发生的(因为你不知道你触摸到什么东西了)。

Kinect通常在执行命令前,要求用户做一个确认性姿势。这种确认要求警告用户,某个事情将会发生,避免无意的姿势造成未预期的动作。不幸的是,这些确认是不一致的:

在某个按钮上握手悬停,等一个动画圈跑完(大部分游戏)

选中一个菜单项,向左挥动手——除非你希望“返回”,那你就要向右挥动。(Dance Central)

先选中一个命令,然后在命令旁边弹出一个确认按钮上悬停保持手不动。(Your Shape)

image

触摸一个按钮并不会激活它。相反,在一个确定步骤里,这个姿势激发了另一个按钮。

这些确认姿势令人恼火,尽管能减少偶然激发而造成事故,节省更
时间。有时候,手在某个东西上停留过久会偶然的激发某个功能。这时候可怜的撤销功能支持和不一致的“返回”功能将变得更变本加厉的令人恼火。

好的可用性

Kinect有很多不错的设计元素,清晰的展示了这支设计团队a)知道可用性,b)进行过用户测试,以及c)有可用性改善的优先级管理,尽管他们需要进行更多的开发工作。

这也讲得过去。Kinect存在的唯一原因就是,首先它是一款容易上手的休闲游戏系统。它并不是定位于那些愿意忍受各种变态的按钮组合来发出绝杀的游戏死硬迷。Kenect面向更广大、需要更好的可用性的群体。(事实上,这个游戏机在面世6周内卖出4百万台。)

好的可用性例子,包康上面提到的在命令区提供的屏幕提示,否则将很难激活。设计师们是如何知晓用户会在哪儿需要提示呢?从观察真实用户玩游戏,然后记录他们遭遇的困境。

另一个恰当可用性的例子是:按钮会有“磁性”的感觉,当你的手靠近一个按钮时会把光标吸过去。(这样就增大了费兹法则 Fitts‘ Law 的按钮尺寸,舒缓了由于手在运动时晃动而带来的影响。)

最具说服力的可用性进步是,Kinect识别用户的面庞后会自动的登录。站在感应器前面,“XXX已被识别”会出现在屏幕上,然后当前游戏就会使用玩家自定义的虚拟游戏人物。Jacob在1993年把这种交互技术称为“非命令式用户界面”:你不需要向电脑发出指令,你只需要做要做的事情,计算机自动完成它的那部分任务。

在企业内部网中,单一登录是需求最大(但也最少提供)的功能。然而,自动登录甚至更好,消除了整个交互步骤。

有趣的游戏,尽管有可用性问题

在简短的演示后,人们就能从游戏中获得很多的乐趣。相比较而言,在iPad上导致严重可用性问题的同样问题,Kinect用户会自然而然的克服掉。为什么Kinect的整体用户体验发生作用了呢,尽管存在很多用户界面缺陷?

这个解释依赖于两种系统上用户任务的差异性。可用性相对于两点问题而被定义:用户和他们要完成的任务。比较iPad和Kinect,尽管是同一位用户,人们在完成两件不同的事情时,可用性是迥然不同的。

当然,人们也会在iPad上玩游戏。然而,游戏中怪诞的交互风格很少制造出问题。在平板电脑设计中我们所关注的是,商业导向的用户界面,譬如电子商务,股票交易,和信息获取。这时候,不一致和奇怪的设计会减少使用,然后增加商业成本。

此外,Kinect用户不会每一或两分钟内从一个情景跳到另一个情景,但移动用户会。当你玩Kinect游戏时,你沉浸在游戏中(经常持续半个小时或更长时间),之间你不会去碰别的游戏。事实上,游戏切换并不是通过屏幕导航来完成,而是更换游戏DVD,这就减少了屏幕UI上的加载。

最后,不同的游戏通常很有差异很大的行为和目标,所以用户界面的变化也还过得去。划皮筏艇,跟雷姐Gaga跳舞,有着天差地别。

在iPad上,不管你是否买这个还是那个,你期望能获得电子商务用户体验的最佳实践的对待,这种体验业已被无数所使用过的网站所定义。类似的,不管你是在阅读一份杂志或报纸,你期望文章之间有相似的导航UI。无论你是在股票账户里研究投资还是查看天气预报,或者修改航班预定,你期望有相似的交互技术,以便来过滤冗长的清单或者更换度量单位。

具有目的性的使用iPad或其他姿势界面平板电脑或手机,是具有相似性的任务组合,有着强烈的用户期待和频繁的情景转换,对设计上的不一致性会有强烈的反抗。此外,用户不得不通过具有丰富功能的命令来操作大量的数据集,把比率很大的时间花费在操作UI上。用户体验质量很大由UI可用性来决定,不管内容是否满足了用户的信息需要。

玩游戏,Kinect主要是提供各式各样的行动,用户的焦点在于某个时点上的单一游戏,因此能很好的克服不一致性。因此,用户导航少量的数据空间,把大部分时间投入在游戏力,只是偶尔脱离游戏世界来操作命令导向的UI。用户体验质量很主要由游戏玩耍来决定。

最后的差异点是,移动设备是个人的:你的手机就是你的,通常会固定的跟这个设备进行交互。尽管连到社交网站上,屏幕的真实用户界面也是只由你来操作。相反的,游戏机则通常是在一个小群体(group setting)里面使用,新用户在进入新的用户界面时通常会有更资深的用户进行介绍。

这种使用环境上的差异,对自我解释性的UI(self-explanatory UI)依赖会更少,移动UI不得不需要更高的易学性。

Kinect是一个令人兴奋的用户界面技术进步,但很多用户体验特征使其低劣平庸,并非是满足商业、政府部门和非营利性组织每天使用的网站、内部网和应用的具有实用性用户界面的康庄大道。令Kinect有趣的设计创意可能会让你遭受巨大损失。

 

注:参见本博客的另一篇编译文章

手势界面:可用性的一次退步(?!)

Posted in 可用性测试 | Tagged , , , , | Leave a comment

用邮件来挽救被遗弃的购物车

http://www.getelastic.com/cart-recovery-1/

购物车遗弃对任何一家电子商务零售商来说,都是一件酸楚的事情。总会有某个比率的客户会在结算流程的某个环节上无声离去。研究显示,电子商务零售网站的平均购物车遗弃率在60-70%左右,这是一个非常高的数字。

一些不完全的原因如下:

  • “价格标签震惊” (对未预料到的运费和税费的反应)
  • 要求注册(1/4的人会放弃,除非提供访客结算功能)
  • 安全或隐私的考虑
  • 结算过程中注意力被转移,导致客户关掉窗口
  • 还没打算购买
  • 打算以后再购买(Forrester Research的研究认为,这个比率是24%)
  • 技术问题(表单不能用,信用卡被拒,访问进程过期,页面加载缓慢,等)
  • 可用性问题(过于复杂的表单,要求提供过多信息)
  • 不支持惯用的支付方式
  • 所在地不支持送货

购物车挽救邮件和关注点

上面的问题并不能通过诸如网页重新设计、可用性测试和A/B测试之类的转化率改善工作来缓解。很多在线零售商已经在使用“触发式邮件(triggered emails)”这种再营销活动(remarketing program)来应对购物车遗弃客户。只有邮件在第一步被获取,重新定位就有可能。

什么时候触发?

2009年,Listrak进行了一项研究,对互联网零售商500强(Internet Retailer 500)使用触发式邮件的习惯进行了解,发现只有42家部署了购物车遗弃邮件。这42家零售商,平均邮件送出时间是75.1小时(3天3小时6分钟)。只有10%的是在第一个小时内发送,17%在1-24小时之间,33%在24-72小时,40%在72小时之后。

决定购物车挽救邮件的发送时间点是一个很关键的问题。一些邮件营销专家认为,最佳实践是在购物车遗弃的24小内,一些人甚至认为应在几分钟之内。然而,Bronto Software的Kelly Lorenz最近在她的博客分享了一位客户的经验,在购物车被遗弃后的3天而不是24小时发送挽救邮件,带来了更高的转化率和收入。

进行试验,也许是发现最恰当时机的最佳方式。可以考虑一下客户从访问到购买的平均时间(利用网站分析工具),以此来帮助决定这中间的时间窗应该是多长。

image

image

制定触发式邮件的策略

对不同的细分客户群部署不同的邮件信息

如果客户还处在商品研究阶段或准备以后再买(等有钱了),那触发邮件就不会有效果。然而,时间拖得过长,客户可能已经在别处购买了,或者就是忘记了她曾经把某件商品加入到购物车。一个好的侧爵士,针对不同的遗弃情况,部署不同的触发邮件在不同的时间点发送。

了解遗弃发生的地点

典型的,客户进入购买漏斗越深,购买意图越强。在填写信用卡信息环节时遗弃,可能预示网页表单上的技术问题。这样,你可以在几分钟或数小时内考虑发送一封客户服务导向的邮件,提供如何完成结算的帮助信息(包含客服电话号码或者邮件联系人)。

相反的,如果一位已登录的现有客户在购物车页面遗弃,你可能会假设她要先把商品留置(以后再购买),被其他事情分散注意力,被运费影响购买决定,或者就是现在还不准备购买。这样的话,提醒邮件也许在72小时至10天发送会更合适。

了解为什么会发生遗弃

针对客户在填写表单时会遭遇的错误情况,对客户进行标记,这样能帮助你发送最具相关性内容的邮件。如果客户连续碰上信用卡号码不匹配的错误,那可能是由于安全考虑导致信用卡被锁定了。大多数客户不知道这是什么原因,再三检查后,表单依然拒绝提交。通常,客户只有在24小时后才能再度尝试(禁令移除)。这样,你可以发送一封提醒24小时后再提交的邮件,或者让客户通过向客服中心打电话,用其他卡来支付。

客户输入过期优惠券号,也许可以获得一个特别针对这一客户的优惠号码(这种情况下,客户总是会由于价格问题而放弃)。或者,你也许就忽略这一位客户了。

客户收到一条“库存不足”的提示信息?那尽快发送一封推荐类似商品或提供“库存充足后提醒我”的邮件就是恰当的做法。如果商品在产品页面显示有货,但在结算时却无货(可能出现在诸如“秒杀”之类的促销期内),那一封发送针对下次购买的小额优惠券会提供一个体验友好的姿态。在这种情况下,客户接获得有条件的优惠,并不会带来什么风险,这清晰的显示了给客户带来不便的一种礼仪行为。

只用邮件去接触客户吗?

如果你还获得了客户的电话号码,一次客服导向的edmhw也许会拯救这次销售。但客户也许并不会喜欢接到才在线商店打来的电话。这样的话,你可能会只针对进入较深购物漏斗的客户拨打电话,或者针对需要复杂销售的商品进行电话联系。

触发式挽救邮件的内容和设计

下回再谈

Posted in 消费者行为 | Tagged , | Leave a comment

Google的在线时尚店:Boutiques.com

在网上选购一件时装,跟买相机或手机是绝对不一样的购买体验,当然,线下购买也一样,不用多说你当然能体会到。

对于时装选购,评价和规格的重要性要远远弱于标准化的3C类产品。时装购买,在于发现在恰当时机满足你的品味和感觉的东西

Google公司在收购Like.com后,这些互联网技术呆子(Nerds)跟一群时尚达人(fashion nerds,Google员工的确开玩笑的用这个称谓来称呼这些时装设计师)走到一起,开创了一种全新方式来在网上浏览、发现和购买时装。这就是Boutiques.com:一个提供个性化购物体验、发现和探索时装产品的网站。你可以创建自我品味的精品店,或通过整合风尚先锋(名流、造型师、设计师或时装博客主)来满足你的时尚需求。精品店通过计算机视觉(computer vision)和机器学习技术来视觉化的分析你的品味,并进行匹配。

image

在时尚世界中,存在在太多的搭配组合。所以,网站必须提供一种协作服务。

Google跟各式各样的风尚先锋合作。但并不是让这些风尚先锋去提供那么几十套他们所喜欢的单品,而是要让他们去教网站学习他们的品味和风格。时尚先锋们告诉这个网站他们所热爱和憎恶的颜色、图案、品牌和款型;参加网站调查问卷,让网站理解他们的风格类型:经典、波西米亚、前卫等。然后,Google的机器学习算法就利用这些信息,向用户提供一种全新的在线时尚购物体验。当然,有信心和个性的用户也可以创建自己独一无二的风格精品店。

 

image

购物者可以借鉴时尚先锋们的选择来作为时装搭配的灵感来源。网站开发者们期望用户可以找到他们的“时装品味同好者” ,然后在这个专门定制化的精品店里畅快的购物。

image

访问者可以浏览设计师、名流、时尚博客主和其他用户创建的精品店。图为Carey Mulligan的精品店。

image

一位博客主为Seao of Shaoes 创建的精品店

image

新访客可以填写一份问卷,然后Google的算法将提供更为有用的个性化结果。

Boutiques.com还提供了一系列搜索和发现商品的特性。

高级搜索过滤器:按性别、款型、图案、颜色家族和尺寸

image

灵感图片(Inspiration photos) 搜索[黄色气垫鞋 yellow pumps],你将看到相匹配的服装组合点子。这些图片来自街头风格网站、拼贴画和时尚网站,在线服装模特将给你很多时装灵感。

完成搭配(Complete the Look)  如何搭配一身行头?时尚设计师提供了上百条风格规范,譬如“图案太花的手包不要跟图案太花的衣服搭配”之类。

视觉搜索(Visual search) 如果你喜欢某件单品,但不喜欢它的颜色,怎么办呢?网站会分析这件单品的图片,包括色彩、形状和图案,然后来帮助你找到视觉上像类似的其他单品。

平板电脑精品店 让你在平板电脑(iPad)上也能浏览和购物的应用。

Posted in 网站剖析 | Tagged , , | Leave a comment

六种常见在线零售营销细分和定位选项

六种常见电邮营销(email marketing)客户细分和定位(targeting)选项。这些选项通常可进行分层细分来组合使用。下图是eBay UK在依此电邮营销大会上的分享:

image

要实施这一级别的电邮营销,企业需要有能支持按事件触发的电邮营销系统以及动态内容插入功能,从而提供不同的促销和电邮内容。

六种定位选项:

  1. 客户档案特征(人口统计)
  2. 客户价值—现在和未来
  3. 客户生命周期组
  4. 客户的反馈和购买行为(观察到的和预测的)
  5. 客户多渠道行为(渠道偏好)
  6. 客户角色,包括消费心理(psychographics)

下面选取几点做解释:

客户的当前和未来价值

Peppers & Rogers的三类客户划分:最有价值的客户(Most-valuable customers MVCs),最有增长潜力的客户(Most-growable customers, MGCs)和零下价值客户(Below Zero Customers, BZCs)。要基于忠诚度做细分,比较当前和未来价值,可以用一个矩阵来进行视觉化分析。

一个来自零售集团Otto的案例:

image

事实上,这个细分会比看上去的要复杂得多,里面采用了一系列的指示性指标。

基于客户生命周期组的定位
  • 注册 logged-on
  • 疑虑 cautionary
  • 信心增长 developing
  • 安心 established
  • 热诚 dedicated
  • 离开 logged-off(在这里的目的是要“赢回”客户)
基于客户反馈和购买的当前和预测行为

随着客户进入不同的生命周期阶段,如果不同渠道的互动行为都能被捕捉到,譬如邮件点击和网站页面访问,这样就能构建一个详尽的客户反馈和购买历史。

针对这一行为历史,开发一套“行为积分”,显示不同客户的活跃水平。传统零售业中常用的RFM分析法(最近期、频度和购买金额 recency, frequency, monetary value),以及所购买的产品种类,也是一种有效的但可能稍微复杂一些的分析方法。相关的方法,还有客户存活分析(survival analysis)等。

补充:

在网站分析工具(如Google Analytics, Yahoo! Web Metrics; Omniture, Coremetircs等)可选用的用户细分参数:

1. Segmentation by Referrer / Traffic source:

  • Paid
  • Natural
  • Paid and natural brand and non-brand
  • By number of keywords – 2,3,4
  • Social media

2. Segmentation by Visitor Type

  • New visitor
  • Returning visitor
  • Registered visitor
  • Customer

3. Segmentation by Engagement

  • 5 pages,
  • ❤ pages

4. Segmentation by Content Viewed

  • Key landing page
  • Product page
  • Checkout complete
  • Folders for large organisation

5. Segmentation by Landing Page Type

6. Segmentation by Event:

  • Conversion goal types and E-commerce

7. Segmentation by Platform (less important)

  • Browser
  • Screen resolution
  • Mobile platforms

8. Segmentation by Location Main markets

  • UK
  • US
  • FIGS
  • ROW
Posted in 消费者行为 | Tagged , , , | Leave a comment

用自定义变量跟踪Android应用的用户行为

Google Analytics Mobile SDK 为Android移动应用提供了跟网站分析几乎一样的行为跟踪能力,譬如高级细分,目标(goal)和自定义报表。现在,Google在Google Analytics Mobile SDK 里了又对页面访问和事件标签里加入了自定义变量(custom variables)功能!

自定义变量能更好的去跟踪移动用户的使用数据,并作为数据的细分参数。譬如:

  • 免费 vs 付费用户:有多少比例的用户从demo版转化成全功能版?这中间花了多长时间?
  • 应用版本:哪个应用版本的用户最多?哪个版本流失了一些用户?找出问题所在,快速修正!
  • 平台版本:如果你的应用对Android系统最低版本有所要求,是否会造成用户进入使用的障碍?你应该向下兼容,还是充分利用新版本的特性?

你也可以用自定义变量来了解用户在交互操作时的习惯:

  • 交互模式:用户更多的使用菜单项还是长按呼出命令?
  • 帮助/教程:用户在观看内置教程后,会去探索应用中的多少种特性?用户是否会因为新加入帮助/教程而去使用之前并不使用的特性?付费用户的转化比例?
  • 水平 vs 垂直操作:用户更喜欢使用哪种模式来操作应用,水平方向或垂直方向?
Posted in 开源BI | Tagged , , , | Leave a comment

Common Problems in Usability Test Facilitation 可用性测试中的常见问题

这些常见问题由 Rolf Molich 和 Chauncey Wilson所收集。

Rolf Molich 和 Chauncey Wilson 整理了最初版本的问题列表,并加入下列补充:

  • 来自一次国际在线可用性社区的讨论(The List)
  • 2008年4月8号CHI 2008大会SIG的参会人员。SIG有大约40名参与者,持续90分钟。

有空了再汉化……

Original List suggested by Rolf Molich and Chauncey Wilson

  1. The test setup is not ready when the test participant arrives.
  2. The test participant has problems finding the test location because the instructions are unusable.
  3. The test participant is greeted by someone else rather than the facilitator. Sending a substitute, for example a secretary, could be interpreted as lack of respect for the test participant.
  4. The facilitator discovers when the test participant arrives that he/she is from a competitive company – something that the recruiter missed.
  5. The non-disclosure agreement (NDA) form is unusable, for example because your lawyers require a complex NDA that is beyond human comprehension.
  6. The facilitator rushes the test participant through the consent form.
  7. Inadequate handling of test participants who have considerable previous experience with the product. They are simply treated the same way as novices.
  8. Inadequate handling of test participants who are overqualified, under qualified, or "weird."
  9. The test participant is dressed in a way that is very distracting.
  10. The participant starts flirting with the facilitator.
  11. The facilitator follows the script so carefully that he/she seems almost robotic.
  12. The facilitator does not have a script or even a checklist.
  13. The facilitator talks too much. The session turns into an interview.
  14. The facilitator provides hidden clues in his/her spoken language or body language. For example, the body language says "You have almost solved the task. The answer is on the screen."
  15. A third person starts discussing with or correcting, the facilitator during the test session. This is most often the notetaker or the operator of a paper prototype.
  16. The scenario does not match the data in the database. For example, the task says “Look up your own information in the system”, and the actual screens show a name that is different from the test participant’s name.
  17. The facilitator helps too soon. The test session turns into a demonstration rather than an evaluation.
  18. The facilitator does not help even though the problem is evident. Precious time is wasted.
  19. The facilitator asks leading questions.
  20. The test facilitator is prejudiced. He or she defends the product, for example "We have tried that…"
  21. The facilitator is using the co-participation method and one of the participants is really dominant.
  22. The facilitator is disrespectful towards the test participant or the client, for example by brushing aside test participant suggestions, or by badmouthing the application or the development team to calm the test participant.
  23. The facilitator is not sufficiently curious about unexpected problems but strictly follows the test script.
  24. After each task the facilitator reveals the intended way of solving the task.
  25. No debriefing. The test participant is dismissed immediately after completing the last task.
  26. The debriefing is a demonstration of all the wonderful things that the product can do.

Suggestions from the SIG at CHI 2008

  1. Need to stimulate people to make them think aloud.
  2. Equipment used for data logging fails.
  3. Making participants aware of people who are observing.
  4. The observers want to influence the test; they want you to help the participant.
  5. The facilitator asks hypothetical questions.
  6. The facilitator gets bored (and the participant notices).
  7. Multiple facilitators are used and their styles are different.
  8. The facilitator hasn’t had sufficient time to study the application.
  9. The participant is too tired to run the test. For example, he has just worked an all-night shift.
  10. The test facility is not fully accessible. For example, a person in a wheelchair cannot adjust the desk or table; a person who is hard of hearing is not given some way to control volume.
  11. Test participants are repeaters ("test groupies").
  12. The test participant misunderstands the task and solves the wrong task.
  13. Planned on measuring the time in minutes, but actual task time was shorter than expected and should be measured in seconds.
  14. Thinking-aloud biases participants to have a more structured approach to task solving.
  15. Test participants are internal people with prejudices.
  16. The system can crash; takes time to restart.
  17. Developers are still working on the project; changes during the session.
  18. Facilitator does not deal adequately with deception caused by prototype method or process. For example, the study is a Wizard of Oz study where an expert is providing answers to the participant without the participant’s knowledge.
  19. Handling of offensive material accidentally shown to test participant. Example: http://www.whitehouse.com used to be a porn site but it is not one any longer. People would type http://www.whitehouse.com rather than http://www.whitehouse.gov and get an offensive site).
  20. Facilitator stops test participant even though he/she wants to continue.

Suggestions from The Online Usability Discussion List

The following 34 suggestions were made on “The List” by
– Jacqueline Stetson – published 27-03-2008
– Paul Nuschke – published 01-04-2008, suggestions marked *

Participants (15)
 participant is late
 participant is a no-show
 participant doesn’t match desired user type (bad recruiting / screener)
 participant smells ungodly
 participant answers non-important cell phone calls
 participant chews gum and makes smacking noises into the microphone
 participant’s boss walks over and watches what is going on
 participant’s boss answers question for the participant
 participant is there to tell you what s/he thinks not complete a task
 participant flirts with you and asks you out
 participant eats all of the bowl of candy
 participant schedules an appointment which requires them to leave testing early *
 participant takes drug before testing *
 participant moves in seat non-stop *
 participants think that they are participating in a focus group. *

Developers (3)
 developers change the prototype during testing
 developers / client are MIA during testing (can’t answer questions or fix problems)
 developers change something during testing and it crashes the prototype *

Observers (5)
 observers are heard laughing from other room
 observers IM moderator (either constantly or making jokes)
 observers talk so loud the note-taker can’t hear what is being said to take notes
 observers stand so close to one-way mirror with a light behind them that the participant can see a
creepy ghostly figure through the one-way mirror.
 observers don’t pay attention and aren’t interested in discussing the test *

Room (5)
 temperature in room is too hot / cold
 room smells (someone ate fish or a sub in the room the day before and left the trash in there and it stinks an ungodly aroma)
 construction or vacuuming being done outside the room and you have no control over it.
 room has gl
are from outside light. *
 seats are uncomfortable. *

Testing (6)
 computer / software crashes
 you forget to push record
 you forget to test sound levels
 you lose paperwork (before or after it was completed by participant)
 eyetracker fails to track participant *
 remote software has a lag, causing you to be three steps behind participant *

Additional contributions from Paul Nuschke, published 02-04-2008

 Someone not involved in testing issues a unilateral policy change that affects testing and/or participant compensation.
 Issues with a participant (smell, gum, personality) affect moderator’s ability to focus, or to empathize with the participant.
 You discover during testing that a participant has lied on the screener. Do you continue testing when you know the data is not valid?
 You discover during testing that a participant has some issue which was not adequately screened that affects their ability to do the task.
 A participant is taking a long time to complete tasks and will not finish. You need them to finish all tasks to be counted in the study, you’ve told them the test will go a certain way, so how do you stop it and not hurt their feelings?
 The participant makes a statement which offends you personally.
 One participant runs long, so the next participant has to wait.
 You run out of checks or other forms of incentive.
 You forget to reset the browser cache and history. Consequently, the link path is highlighted by the "visited" link color, URLs are automatically filled in, and form data is available via drop-down lists.
 You forget to start the timer, or to write down the time.
 You don’t read all of the instructions for every participant.
 You forget to ask a question that the client has just added to testing because it’s not in your script.

Samantha Bailey

 Burnout after testing many participants in a day, week.
 Does not use a script (prefers to look them in the eye; counterargument: forget something important)
 Follows script so carefully that they seem almost robotic
 Variability in instructions

Ken Becker

 Slipping in on-the-fly questioning of test participants, a tendency to ask leading questions
 Permitting observers in the same room with the participants.

Other

 Rephrasing or explaining tasks on-the-fly

Posted in 可用性测试 | Tagged | Leave a comment