你每天跑这么多自动化用例,能发现BUG吗?

简介: 为什么要度量测试有效性?这么多的CASE,花了大量时间和资源去运行,真能发现bug吗?CI做到90%的行覆盖率了,能发现问题吗?测试用例越来越多,删一些,会不会就发现不了问题了?怎么找出那些为了覆盖而覆盖,发现不了真正问题的测试用例?本文带您探索其中的奥秘。

什么是测试用例的有效性?

我们的测试用例有两个比较关键的部分:

1)调用被测代码:例如下面的RuleService.getLastRuleByClientId(ClientId)

2)进行结果Check:例如下面的AssertEqual(OrderId,"ABCD1234")

2.png

我们希望一组测试用例不仅能够“触发被测代码的各种分支”,还能够做好结果校验。

  • 当业务代码出现问题的时候,测试用例可以发现这个问题,我们就认为这一组测试用例是有效的。
  • 当业务代码出现问题的时候,测试用例没能发现这个问题,我们就认为这一组测试用例是无效的。

我们对测试用例有效性的理论建模是:

>> 测试有效性 = 被发现的问题数 / 出现问题的总数

为什么要评估测试用例的有效性?

1-1.png

测试用例有效性评估的方法?
基于故障复盘的模式成本太高,我们希望能够主动创造问题来评估测试用例的有效性。

我们找到了一种衡量“测试有效性”的方法,变异测试(mutation testing)

1-2.png

变异测试的例子

1-3.png

通过变异测试的方式:让注入变异后的业务代码作为“测试用例”,来测试“测试代码”。

我们实现了多种规则,可以主动的注入下面这些变异:

4  .。.png

如何优雅的评估测试有效性?

为了全自动的进行测试有效性评估,我们做了一个变异机器人,其主要运作是:

  • 往被测代码中写入一个BUG(即:变异)
  • 执行测试
  • 把测试结果和无变异时的测试结果做比对,判断是否有新的用例失败
  • 重复1-3若干次,每次注入一个不同的Bug
  • 统计该系统的“测试有效性”

5.png

变异机器人的优点:

防错上线:变异是单独拉代码分支,且该代码分支永远不会上线,不影响生产。

全自动:只需要给出系统代码的git地址,即可进行评估,得到改进报告。

高效:数小时即可完成一个系统的测试有效性评估。

扩展性:该模式可以支持JAVA以及JAVA以外的多种语系。

适用性:该方法不仅适用于单元测试,还适用于其他自动化测试,例如接口测试、功能测试、集成测试。

变异机器人的使用门槛:

测试成功率:只会选择通过率100%的测试用例,所对应的业务代码做变异注入。

测试覆盖率:只会注入被测试代码覆盖的业务代码,测试覆盖率越高,评估越准确。

高配版变异机器人

我们正在打造的高配版变异机器人拥有**三大核心竞争力
**

分钟级的系统评估效率

为了保证评估的准确性,100个变异将会执行全量用例100遍,每次执行时间长是一大痛点。

高配版变异机器人给出的解法:

并行注入:基于代码覆盖率,识别UT之间的代码覆盖依赖关系,将独立的变异合并到一次自动化测试中。

热部署:基于字节码做更新,减少变异和部署的过程。

精准测试:基于UT代码覆盖信息,只运行和本次变异相关的UT(该方法不仅适用于UT,还适用于其他自动化测试,例如接口测试、功能测试、集成测试)

学习型注入经验库

为了避免“杀虫剂”效应,注入规则需要不断的完善。

高配版变异机器人给出的解法:故障学习,基于故障学习算法,不断学习历史的代码BUG,并转化为注入经验。可学习型经验库目前覆盖蚂蚁金服的代码库,明年会覆盖开源社区。

兼容不稳定环境

集成测试环境会存在一定的不稳定,难以判断用例失败是因为“发现了变异”还是“环境出了问题”,导致测试有效性评估存在误差。

高配版变异机器人给出的解法:

高频跑:同样的变异跑10次,对多次结果进行统计分析,减少环境问题引起的偶发性问题。

环境问题自动定位:接入附属的日志服务,它会基于用例日志/系统错误日志构建的异常场景,自动学习“因环境问题导致的用例失败”,准确区分出用例是否发现变异。

落地效果如何?

我们在蚂蚁金服的一个部门进行了实验,得出了这样的数据:

10.png

换言之,几个系统的测试有效性为:系统A 72%,系统B 56%,系统C 70%

测试有效性(%) = 1 - 未发现注入数 / 注入数

更多的测试有效性度量手段

基于代码注入的测试有效性度量,只是其中的一种方法,我们日常会用到的方法有这么几种:

代码注入:向代码注入变异,看测试用例是否能发现该问题

内存注入:修改API接口的返回内容,看测试用例是否能发现该问题

静态扫描:扫描测试代码里是否做了Assert等判断,看Assert场景与被测代码分支的关系

... 还有更多其他的度量手段

Meet the testcase again

测试有效性可以作为基石,驱动很多事情向好发展:

  • 让测试用例变得更能发现问题。
  • 让无效用例可被识别、清理。
  • 创造一个让技术人员真正思考如何写好TestCase的质量文化。
  • 测试左移与敏捷的前置条件。
  • ......

写到最后,想起了同事给我讲的一个有趣的人生经历:

“大二期间在一家出版社编辑部实习,工作内容就是校对文稿中的各种类型的错误;编辑部考核校对质量的办法是,人为的事先在文稿中加入各种类型的错误,然后根据你的错误发现率来衡量,并计算实习工资。”

“你干得咋样?”

“我学习了他们的规则,写了个程序来查错,拿到了第一个满分”

“厉害了...”

“第二个月就不行了,他们不搞错别字了,搞了一堆语法、语义、中心思想的错误... 我就专心干活儿了”

“...”

殊途同归,其致一也。

文章来源:AlibabaTechQA
开发者社区整理

相关文章
|
2月前
|
人工智能 测试技术 Python
基于 LangChain 的自动化测试用例的生成与执行
本章节详细介绍了如何利用人工智能技术自动化完成Web、App及接口测试用例的生成与执行过程,避免了手动粘贴和调整测试用例的繁琐操作。通过封装工具包与Agent,不仅提升了测试效率,还实现了从生成到执行的一体化流程。应用价值在于显著节省时间并提高测试自动化水平。
|
3月前
|
存储 测试技术 API
apifox实例应用-自动化测试用例for循环的使用
总结来说,通过在Apifox自动化测试用例中结合for循环的使用,我们可以有效地对接口进行批量测试,提升测试效率和覆盖率。同时,通过参数化测试数据的灵活应用,能够确保我们的接口在不同的输入条件下都能保持正确的行为。这种方法能够显著减少手动测试工作量,同时通过标准化的流程确保测试的一致性。
260 0
|
JSON 测试技术 数据格式
2022/9/5开始第三版接口自动化(yaml用例)测试框架(记录搭建过程)(这个废弃了)
2022/9/5开始第三版接口自动化(yaml用例)测试框架(记录搭建过程)(这个废弃了)
|
测试技术 Python
python接口自动化(五)--接口测试用例和接口测试报告模板(详解)
当今社会在测试领域,接口测试已经越来越多的被提及,被重视,而且现在好多招聘信息要对接口测试提出要求。区别于传统意义上的系统级别测试,很多测试人员在接触到接口测试的时候,也许对测试执行还可以比较顺利的上手,但一 提到相关的文档,比如测试用例和报告,就有些不知所措了。这类问题在我加入的几个测试的群里,经常看到一些人在不断提问。   今天就用这篇文章来说说接口测试用例和报告。
438 2
python接口自动化(五)--接口测试用例和接口测试报告模板(详解)
|
安全 Java 测试技术
python接口自动化(三)--如何设计接口测试用例(详解)
上篇我们已经介绍了什么是接口测试和接口测试的意义。在开始接口测试之前,我们来想一下,如何进行接口测试的准备工作。或者说,接口测试的流程是什么?有些人就很好奇,接口测试要流程干嘛?不就是拿着接口文档直接利用接口 测试工具测试嘛。其实,如果只是三五个接口,你可以这么做一个临时的接口测试。但是,如果是上百个接口,或者,你们公司的这个项目,第一次做接口测试,那么,我们还是很有必要严格遵守接口测试的流程。
359 0
python接口自动化(三)--如何设计接口测试用例(详解)
|
存储 测试技术 持续交付
自动化测试如何区分用例集合
业务增长自然而然带来的是流程的复杂度提升和业务场景的多样性,同时用户体验和线上的小问题影响范围,也会扩大。因此在测试case的覆盖率上,覆盖的颗粒度会更细致。
自动化测试如何区分用例集合
|
前端开发 JavaScript Java
自动化测试用例如何编写
自动化测试是验证和验证软件是否满足所有用户需求,并使用自动化工具按预期运行。它检查在产品开发阶段期间和之后出现的错误、问题和其他类型的缺陷。这种类型的软件测试运行在由测试工具处理的编程脚本上。有多种测试工具,它们要么提供基于代码的平台,要么为 QA 提供无代码选项。
|
测试技术 Python
python接口自动化(二十六)--批量执行用例 discover(详解)
我们在写用例的时候,单个脚本的用例好执行,那么多个脚本的时候,如何批量执行呢?这时候就需要用到 unittest 里面的 discover 方法来加载用例了。加载用例后,用 unittest 里面的 TextTestRunner 这里类的 run 方法去一次执行多个脚 本的用例。那么前边介绍那么多都是半道开始,半道出家,这篇就带大家从头到尾,一步一步给小伙伴们详细介绍一下。
259 0
python接口自动化(二十六)--批量执行用例 discover(详解)
|
数据采集 域名解析 XML
漏洞猎人赏金笔记-如何编写Bug Bounty自动化脚本
前言 本文原文作者为@pry0cc,本文主要是对原文相关内容的提炼以及笔记,出于易读性考虑,笔者对很多地方做了一定量的注释或者删改(因为原文中的脚本存在一定问题)。 本文主要讲解的是经典的自动化信息搜集以及数据处理和漏洞扫描的流程.
557 0
漏洞猎人赏金笔记-如何编写Bug Bounty自动化脚本
|
JSON 缓存 测试技术
全栈自动化第一期—Pytest+Allure实现用例与报告管理
本文主要介绍了详解Pytest+Allure搭建方法以及生成报告常用操作,实现自动化过程中对测试用例的管理以及最终生成自定义测试报告,文中通过示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
793 0
全栈自动化第一期—Pytest+Allure实现用例与报告管理