优化A/B测试不仅仅是程序员的事,设计师也能玩

简介:

A/B 分类测试

A/B分类测试使得网站可以通过比较同一网页的不同设计,来决定其中哪些设计将产生最好的结果。在A/B测试中用到的指标是微观和宏观的转化率。

随着那些不需要太多开发协助和技术资源就能运作A/B测试的工具的出现,A/B测试已经变得愈加常见。这个方法本在市场营销从业者中有着很稳的立脚点,而因为成本相对较低,它也正在越来越广泛地被用户体验设计师们所运用。

许多大型电子商务网站如谷歌及亚马逊都以“总在测试中”而著称——他们在任何时候都同时进行着多组A/B测试。

优化A/B测试不仅仅是程序员的事,设计师也能玩

(来自Netflix分享ppt)

无用输入,无用输出(GIGO)
使用恰当时,A/B测试是一个非常强大的工具。然而以下三种情形下的A/B测试还是会有潜在的问题:

1)当所要测试的设计元素并没有很好地体现设计意图。

糟糕的设计会导致糟糕的转换率——显而易见。但是,每个设计都是一个产品概念的后续执行,因而通过设计的实施来评判一个产品概念本身的优劣是很可笑的。通常要经过许多次设计尝试才能充分地体现出真正的设计意图。

比如说,从理论上讲,增加对某一选项的说明会增加其被选择的可能性,然而如果这条描述表达得像一则广告,用户就可能会无视。这个增加选项的说明的设计意图是对的,但其表达形式却是错的。因此设计意图和设计结果的偏差可能会是致命的。

当设计元素本身并不能告诉你问题的源头在哪。对问题起因的错误推测,也会让你在错误的设计元素上浪费时间,因为该元素并非是该问题背后真正的原因。即便修改这个设计元素也不能真正解决问题,因为你的切入点一开始就错了。

比如,你可能猜测一个贷款申请提交转化率低是因为流程的页面太多了,所以你把它浓缩到一个页面里,但是你仍看不到任何转化率的提升。你忽略的是,用户真正的问题是找不到贷款利率,而他们点进申请页面其实是为了找贷款利率。

2)当设计只是设计者的主观猜想。

使用A/B测试时你只能从已提供的设计选项中找到最佳的那个。如果这些选项是基于主观经验和意见的话,谁又能说这个测试包含了最优的设计呢?

3)这些A/B测试实验过程当中的瑕疵可以通过用户研究来减少。

即使只实施了些许的用户研究,我们仍能获取一些极其宝贵的有关于转化率问题的潜在原因的线索。

发现真正原因,定义更好的设计
发现(造成转化率低的)真正原因,定义更好的(用于测试的)设计。

“实验可以证实一个理论,但实验永远无法创造出一个理论。 ”——爱因斯坦

要保证A/B测试执行得好,需要定义以下这几步:

优化A/B测试不仅仅是程序员的事,设计师也能玩

你可以先集中全部精力建立一套致因体系,并罗列设计元素的可能性,然后用A/B方法把他们全部测试一遍:这是最直接了当却不免有一些鲁莽的方法。不经深思熟虑的 A/B测试等同于把想法往墙上扔然后看哪个能黏住。不幸的是,你做不起这样的测试:这样大规模地测试会增大用户放弃操作的几率,并且使总体验变糟糕。

当你等着从大量A/B测试像抽中彩票一样找到最好的方案,用户可能已经转而使用了他们第二选择的产品,他们可能最终认定你的网站是失败的,以后再也不会来了。你需要缩小假设的数量范围,并且小心谨慎、高效地部署你的A/B测试;为达到此目的,我们推荐使用用户研究的方法。

提升最优化测试的用户体验研究方法
优化A/B测试不仅仅是程序员的事,设计师也能玩

1)定义用户意图和可能反对的理由

理解人们为何访问、是否能成功访问、和他们为何会离开,是相当重要的。

如果你错误地假设了人们访问网站的原因,那么你的设计假设将不能够反应用户对环境的感知。没有做过调查就对用户离开的原因做假设是很危险的。

举个例子,假定你假设访问者没有做意想中的操作(买单)是因为价格太高,你于是将价格降低,边际利润就受到了打击。如果人们真正不买账的原因不是价格,而是他们不理解你提供的服务能解决什么,那么你就大错特错了。

让我们来看看Netflix是怎么做的:

Netflix就做了一个很有趣的A/B测试来了解影响转化率的因素。Netflix的主页上展示了大量的影视作品,然而不同用户所看到的是不一样的。作为其A/B测试的一部分,这是该公司对用户提供的个性化推荐。不仅如此,Netflix更对看到同一个影视产品推荐的用户进行了分批测试。他们让视觉设计师重新设计了不同版本的影视剧海报,并将这一变量用于A/B测试。得到的结果是,即便是同一个作品,不同的海报仍会造成不同的转化率。这就印证了造成用户离开或点击的理由是多样化的。

因此不要局限于那些明显的理由,而要深掘用户可能关注的点。有时候用户说的不一定是他们所做的,所以往往观察比问卷调查能提供更为真实的用户使用倾向。

优化A/B测试不仅仅是程序员的事,设计师也能玩(图片来自Netflix博客)

优化A/B测试不仅仅是程序员的事,设计师也能玩(图片来自Netflix博客;右上的两张标注的图片显著地提高了转化率)

2)发现界面的缺陷

如果你忽视了重大的可用性问题,比如让人难以理解的交互流程,或容易造成误解的微交互,那么你可能不会从不断的A/B测试中获得转化率的提升,因为你的设计并没有应对问题的根源。

举个例子:如果你提供的填空题中有几项要求的信息是用户不方便或不愿意提供的,那么仅仅靠更改提交按键的颜色来做A/B测试是不会有效提升转化率的,反而是浪费力气。理解低转化率的真正原因才是执行智慧、成功的测试的关键。

如何发掘界面的缺陷:可用性测试(远程主持或免主持,或当面)可以快速进行并可在五个左右用户的帮助下就揭露网站近85%的重大缺陷。

3)衡量网站的可寻性

测试导航标签和菜单设计能披露可寻性的问题。但是,糟糕的可寻性可以并且应该在实施A/B测试之前就确认,这直接影响了信息架构和站内导航。

如何衡量可寻性:树图测试可以在不影响任何界面设计的情况下测量一个已有的或设定的信息架构。树图测试会告诉你标签、链接分组、页面层级及命名系统是否直观。如果你在纠结如何命名网站中的区块、页面、链接以及标签,树形测试能帮你找出最有问题的命名,并帮你设计出能改善可寻性的新标签。树图测试可以用Optimal Workshop开发的Treejack这样的工具进行,它生成可用于测试信息架构的任务。

优化A/B测试不仅仅是程序员的事,设计师也能玩

3)测试前先”铺好路”

最简单的方法,就是开始在A/B测试前,先把那些可能会影响用户操作的绊脚石解决掉。一般几个小时的测试即能揭露几乎所有你网站上特别糟糕的设计。更为复杂和完善的用户研究当然益处更多,但不要忽视了最基本的审查清理工作。

对A/B测试而言,你当然希望所要测试的目标元素不会受到其它可用性问题的干扰,而是能被用户更好的体验到。所以开始测试前先做一次“路障清理”吧。

结语
结合不同方法最大化转化率。

A/B测试是一个绝妙的工具,却时常不幸被误用。如果用A/B测试替代用户研究,那么测试中的设计选项本质上只是主观猜测。你可以通过结合用户研究来更精准的找到问题起因、提出更符合现实的假设,从而为更好的测试结果提供更大的可能。

英文原文:Jennifer Cardello, Define Stronger A/B Test Variations Through UX Research.

本文编译:霍诗雨(点融黑帮),来自点融DDC设计团队的交互设计师,曾在纽约大学研习艺术史。热爱游戏,信仰中医,关注时事。

本文由@点融黑帮(ID:DianrongMafia)原创发布于36Kr,未经许可,禁止转载。

A/B 分类测试

A/B分类测试使得网站可以通过比较同一网页的不同设计,来决定其中哪些设计将产生最好的结果。在A/B测试中用到的指标是微观和宏观的转化率。

随着那些不需要太多开发协助和技术资源就能运作A/B测试的工具的出现,A/B测试已经变得愈加常见。这个方法本在市场营销从业者中有着很稳的立脚点,而因为成本相对较低,它也正在越来越广泛地被用户体验设计师们所运用。

许多大型电子商务网站如谷歌及亚马逊都以“总在测试中”而著称——他们在任何时候都同时进行着多组A/B测试。

(来自Netflix分享ppt)

无用输入,无用输出(GIGO)

使用恰当时,A/B测试是一个非常强大的工具。然而以下三种情形下的A/B测试还是会有潜在的问题:

1)当所要测试的设计元素并没有很好地体现设计意图。

糟糕的设计会导致糟糕的转换率——显而易见。但是,每个设计都是一个产品概念的后续执行,因而通过设计的实施来评判一个产品概念本身的优劣是很可笑的。通常要经过许多次设计尝试才能充分地体现出真正的设计意图。

比如说,从理论上讲,增加对某一选项的说明会增加其被选择的可能性,然而如果这条描述表达得像一则广告,用户就可能会无视。这个增加选项的说明的设计意图是对的,但其表达形式却是错的。因此设计意图和设计结果的偏差可能会是致命的。

当设计元素本身并不能告诉你问题的源头在哪。对问题起因的错误推测,也会让你在错误的设计元素上浪费时间,因为该元素并非是该问题背后真正的原因。即便修改这个设计元素也不能真正解决问题,因为你的切入点一开始就错了。

比如,你可能猜测一个贷款申请提交转化率低是因为流程的页面太多了,所以你把它浓缩到一个页面里,但是你仍看不到任何转化率的提升。你忽略的是,用户真正的问题是找不到贷款利率,而他们点进申请页面其实是为了找贷款利率。

2)当设计只是设计者的主观猜想。

使用A/B测试时你只能从已提供的设计选项中找到最佳的那个。如果这些选项是基于主观经验和意见的话,谁又能说这个测试包含了最优的设计呢?

3)这些A/B测试实验过程当中的瑕疵可以通过用户研究来减少。

即使只实施了些许的用户研究,我们仍能获取一些极其宝贵的有关于转化率问题的潜在原因的线索。

发现真正原因,定义更好的设计

发现(造成转化率低的)真正原因,定义更好的(用于测试的)设计。

“实验可以证实一个理论,但实验永远无法创造出一个理论。 ”——爱因斯坦

要保证A/B测试执行得好,需要定义以下这几步:

你可以先集中全部精力建立一套致因体系,并罗列设计元素的可能性,然后用A/B方法把他们全部测试一遍:这是最直接了当却不免有一些鲁莽的方法。不经深思熟虑的 A/B测试等同于把想法往墙上扔然后看哪个能黏住。不幸的是,你做不起这样的测试:这样大规模地测试会增大用户放弃操作的几率,并且使总体验变糟糕。

当你等着从大量A/B测试像抽中彩票一样找到最好的方案,用户可能已经转而使用了他们第二选择的产品,他们可能最终认定你的网站是失败的,以后再也不会来了。你需要缩小假设的数量范围,并且小心谨慎、高效地部署你的A/B测试;为达到此目的,我们推荐使用用户研究的方法。

提升最优化测试的用户体验研究方法

1)定义用户意图和可能反对的理由

理解人们为何访问、是否能成功访问、和他们为何会离开,是相当重要的。

如果你错误地假设了人们访问网站的原因,那么你的设计假设将不能够反应用户对环境的感知。没有做过调查就对用户离开的原因做假设是很危险的。

举个例子,假定你假设访问者没有做意想中的操作(买单)是因为价格太高,你于是将价格降低,边际利润就受到了打击。如果人们真正不买账的原因不是价格,而是他们不理解你提供的服务能解决什么,那么你就大错特错了。

让我们来看看Netflix是怎么做的:

Netflix就做了一个很有趣的A/B测试来了解影响转化率的因素。Netflix的主页上展示了大量的影视作品,然而不同用户所看到的是不一样的。作为其A/B测试的一部分,这是该公司对用户提供的个性化推荐。不仅如此,Netflix更对看到同一个影视产品推荐的用户进行了分批测试。他们让视觉设计师重新设计了不同版本的影视剧海报,并将这一变量用于A/B测试。得到的结果是,即便是同一个作品,不同的海报仍会造成不同的转化率。这就印证了造成用户离开或点击的理由是多样化的。

因此不要局限于那些明显的理由,而要深掘用户可能关注的点。有时候用户说的不一定是他们所做的,所以往往观察比问卷调查能提供更为真实的用户使用倾向。

(图片来自Netflix博客)

(图片来自Netflix博客;右上的两张标注的图片显著地提高了转化率)

2)发现界面的缺陷

如果你忽视了重大的可用性问题,比如让人难以理解的交互流程,或容易造成误解的微交互,那么你可能不会从不断的A/B测试中获得转化率的提升,因为你的设计并没有应对问题的根源。

举个例子:如果你提供的填空题中有几项要求的信息是用户不方便或不愿意提供的,那么仅仅靠更改提交按键的颜色来做A/B测试是不会有效提升转化率的,反而是浪费力气。理解低转化率的真正原因才是执行智慧、成功的测试的关键。

如何发掘界面的缺陷:可用性测试(远程主持或免主持,或当面)可以快速进行并可在五个左右用户的帮助下就揭露网站近85%的重大缺陷。

3)衡量网站的可寻性

测试导航标签和菜单设计能披露可寻性的问题。但是,糟糕的可寻性可以并且应该在实施A/B测试之前就确认,这直接影响了信息架构和站内导航。

如何衡量可寻性:树图测试可以在不影响任何界面设计的情况下测量一个已有的或设定的信息架构。树图测试会告诉你标签、链接分组、页面层级及命名系统是否直观。如果你在纠结如何命名网站中的区块、页面、链接以及标签,树形测试能帮你找出最有问题的命名,并帮你设计出能改善可寻性的新标签。树图测试可以用Optimal Workshop开发的Treejack这样的工具进行,它生成可用于测试信息架构的任务。

3)测试前先”铺好路”

最简单的方法,就是开始在A/B测试前,先把那些可能会影响用户操作的绊脚石解决掉。一般几个小时的测试即能揭露几乎所有你网站上特别糟糕的设计。更为复杂和完善的用户研究当然益处更多,但不要忽视了最基本的审查清理工作。

对A/B测试而言,你当然希望所要测试的目标元素不会受到其它可用性问题的干扰,而是能被用户更好的体验到。所以开始测试前先做一次“路障清理”吧。

结语

结合不同方法最大化转化率。

A/B测试是一个绝妙的工具,却时常不幸被误用。如果用A/B测试替代用户研究,那么测试中的设计选项本质上只是主观猜测。你可以通过结合用户研究来更精准的找到问题起因、提出更符合现实的假设,从而为更好的测试结果提供更大的可能。

英文原文:Jennifer Cardello, Define Stronger A/B Test Variations Through UX Research.

本文编译:霍诗雨(点融黑帮),来自点融DDC设计团队的交互设计师,曾在纽约大学研习艺术史。热爱游戏,信仰中医,关注时事。

本文由@点融黑帮(ID:DianrongMafia)原创发布于36Kr,未经许可,禁止转载。

本文转自d1net(转载)

相关文章
|
9天前
|
人工智能 前端开发 测试技术
探索软件测试中的自动化框架选择与优化策略####
本文深入剖析了当前主流的自动化测试框架,通过对比分析各自的优势、局限性及适用场景,为读者提供了一套系统性的选择与优化指南。文章首先概述了自动化测试的重要性及其在软件开发生命周期中的位置,接着逐一探讨了Selenium、Appium、Cypress等热门框架的特点,并通过实际案例展示了如何根据项目需求灵活选用与配置框架,以提升测试效率和质量。最后,文章还分享了若干最佳实践和未来趋势预测,旨在帮助测试工程师更好地应对复杂多变的测试环境。 ####
31 4
|
15天前
|
机器学习/深度学习 前端开发 测试技术
探索软件测试中的自动化测试框架选择与优化策略####
本文深入探讨了在当前软件开发生命周期中,自动化测试框架的选择对于提升测试效率、保障产品质量的重要性。通过分析市场上主流的自动化测试工具,如Selenium、Appium、Jest等,结合具体项目需求,提出了一套系统化的选型与优化策略。文章首先概述了自动化测试的基本原理及其在现代软件开发中的角色变迁,随后详细对比了各主流框架的功能特点、适用场景及优缺点,最后基于实际案例,阐述了如何根据项目特性量身定制自动化测试解决方案,并给出了持续集成/持续部署(CI/CD)环境下的最佳实践建议。 --- ####
|
1月前
|
Web App开发 前端开发 JavaScript
探索Python科学计算的边界:利用Selenium进行Web应用性能测试与优化
【10月更文挑战第6天】随着互联网技术的发展,Web应用程序已经成为人们日常生活和工作中不可或缺的一部分。这些应用不仅需要提供丰富的功能,还必须具备良好的性能表现以保证用户体验。性能测试是确保Web应用能够快速响应用户请求并处理大量并发访问的关键步骤之一。本文将探讨如何使用Python结合Selenium来进行Web应用的性能测试,并通过实际代码示例展示如何识别瓶颈及优化应用。
120 5
|
1月前
|
缓存 监控 算法
软件测试中的性能瓶颈分析与优化策略
【10月更文挑战第6天】 性能测试是确保软件系统在高负载条件下稳定运行的重要手段。本文将深入探讨性能测试的常见瓶颈,包括硬件资源、网络延迟和代码效率等问题。通过具体案例分析,我们将展示如何识别并解决这些问题,从而提升软件的整体性能。最后,文章还将分享一些实用的性能优化技巧,帮助读者在日常开发和测试中更好地应对性能挑战。
88 3
|
2月前
|
监控 测试技术 持续交付
软件测试中的性能瓶颈分析与优化策略
性能瓶颈,如同潜伏于软件深处的隐形障碍,悄然阻碍着系统的流畅运行。本文旨在揭示这些瓶颈的形成机理,剖析其背后的复杂成因,并汇聚一系列针对性的优化策略,为软件开发者提供一套系统性的解决方案。
51 5
|
1月前
|
运维
【运维基础知识】用dos批处理批量替换文件中的某个字符串(本地单元测试通过,部分功能有待优化,欢迎指正)
该脚本用于将C盘test目录下所有以t开头的txt文件中的字符串“123”批量替换为“abc”。通过创建批处理文件并运行,可实现自动化文本替换,适合初学者学习批处理脚本的基础操作与逻辑控制。
146 56
|
15天前
|
缓存 监控 测试技术
全网最全压测指南!教你如何测试和优化系统极限性能
大家好,我是小米。本文将介绍如何在实际项目中进行性能压测和优化,包括单台服务器和集群压测、使用JMeter、监控CPU和内存使用率、优化Tomcat和数据库配置等方面的内容,帮助你在高并发场景下提升系统性能。希望这些实战经验能助你一臂之力!
33 3
|
2天前
|
人工智能 监控 测试技术
探索软件测试中的自动化框架选择与优化策略####
【10月更文挑战第21天】 本文深入剖析了软件测试领域面临的挑战,聚焦于自动化测试框架的选择与优化这一核心议题。不同于传统摘要的概述方式,本文将以一个虚拟案例“X项目”为线索,通过该项目从手动测试困境到自动化转型的成功历程,生动展现如何根据项目特性精准匹配自动化工具(如Selenium、Appium等),并结合CI/CD流程进行深度集成与持续优化,最终实现测试效率与质量的双重飞跃。读者将跟随“X项目”团队的视角,直观感受自动化框架选型的策略性思考及实践中的优化技巧,获得可借鉴的实战经验。 ####
12 0
|
1月前
|
缓存 监控 测试技术
软件测试中的性能瓶颈分析与优化策略
本文深入探讨了在软件测试过程中,如何有效地识别和解决性能瓶颈问题。通过对性能瓶颈的定义、分类以及常见原因的分析,结合实际案例,提出了一系列针对性的优化策略和方法。这些策略旨在帮助测试人员和开发人员提高软件的性能表现,确保软件在高负载条件下依然能够稳定运行。
|
2月前
|
缓存 监控 算法
软件测试中的性能瓶颈定位与优化策略
性能瓶颈,如同隐藏在系统深处的“拦路虎”,悄无声息地制约着软件的表现。本文将揭示如何通过一系列科学方法,识别并消除这些障碍,从而显著提升软件性能,确保用户享受到流畅无阻的数字体验。
下一篇
无影云桌面