敏捷测试价值观、方法和实践读书笔记(4)

简介: 本章节探讨了敏捷测试执行的关键概念与实践。首先介绍了用户故事及其重要性,强调其在敏捷开发中的角色,并阐述了用户故事的 INVEST 原则。接着分析了用户故事生命周期中的测试关注点,包括定义、处理、完成及验收阶段的测试活动。此外,还对比了不同测试术语的差异,并提供了敏捷测试计划的策略与过程。通过看板等工具实现任务管理与跟踪,确保测试活动高效进行。最后,介绍了敏捷测试中的度量指标,帮助团队评估测试效果。

第4 章 敏捷测试执行

1 敏捷中的测试需求

为什么会使用用户故事

传统软件开发方法论的假设是基于“用户认知不会发生变化”和“软件系统设计人员能够正确理解”这两个假设建立的。

敏捷软件开发的核心思想就是使用较短的时间交付一个有价值的 (Valuable)工作中(Working)的软件,基于已经构建的客观基础进行增量开发。

  1. 人类自身就是由用户故事驱动的动物:牛顿被苹果砸到头 VS 万有引力
  2. 传统的文档本身就是一种结构化的指述,这和描述缺乏实践序列的因果关系,不能使开发人员产生代入感,也不便于于记忆。
  • As········(作为一名用户/客户)
  • I want to·········(我想要达到的目标是什么)
  • so that········(以及达成目标的原因)
  • 作为一名银行用户
  • 我需要拥有一个账户
  • 以便我可以存钱、取钱,并且显示当前余额

用户故事的INVEST 原则

1.Independent (独立的)

  1. 用户故事粒度太细
  2. 依赖用户故事错序
  3. 团队成员太多
  4. 迭代长度太长

2.Negotiable (可协商的)

简短描述,可以有描述,但是不能有过多的注释

DDD:(Deadline Driven Development,截止时间驱动开发)

质量、时间和范围 三角形

3.Valuable (有价值的)

  1. 用户迫切想要解决的问题,这是一个以时间为参数的函数
  2. 可以根据价值大小和紧急程度进行排序(风险驱动)

4.Estimable (可估计的)

  • 完成的定义 (Definition of Done,DOD)
  • 验收标准(AcceptanceCriteria,AC)

(1)在团队刚成立或接收了新需求的时候,可采用T恤的型号作为衡量单位

  • XS:一天之内可以完成
  • S:一天可以完成
  • M:一周可以完成
  • L: 两周可以完成
  • XL: 超过两周可以完成

(2)可以根据更加细节的内容进行精细化估计

斐波那契数列来表示,用数字代表人天:0.5,1,2,3,5,8,13.··

(3)如果团队比较成熟,估计会比较稳定,人日, man-hour

5.Small (小的)

6.Testable (可测试的)

将验收标准转化为验收测试

  • 验收标准是用户的语言
  • 验收测试是开发团队的语言
  1. 业务代表未必是最终负责验收的人。这往往会导致信息失真
  2. 让验收人参与用户故事讨论
  3. 促使提出人和验收人之间达成验收一致。如果他们之间存在矛盾,那么开发团队不承担责任
  4. 若验收标准变更,则重新开始。

用户故事不是一个新的需求,而是开发人员和用户讨论需求的一种沟通工具

2 测试视角下的用户故事生命周期

用户故事生命周期测试的关注点

2 种状态:

  • 当用户故事还在产品待办列表中时
  • 当用户故事被放到一个 Sprint 待办列表中时
  • 已定义: 是指该用户故事被确定在本次 Sprint 中开发
  • 处理中:是指该用户故事被开发和测试的过程
  • 已完成:是指该用户故事已经被开发和测试完成
  • 已接受:是指该用户经过产品负责人和利益干系人的验收

基于用户故事生命周期的测试关注点

用户故事状态

测试关注点

在产品待办列表中

当用户故事正在定义/开发中,或者还没有确定优先级并分配给 Sprint 时:·测试人员需制订验收标准,以及确定如何测试用户故事·测试人员可以向产品负责人或用户询问真实世界的场景示例

当用户故事被分配到一个 Sprint 待办列表中时

已定义

当用户故事已经被排序并准备开发时:·测试人员必须确保验收标准适当且完整·测试人员开始设计验收测试·若有需要。则应开始准备测试数据·测试人员应着手开发自动化测试脚本

处理中

当开发人员已经开始为用户故事编写代码时,测试人员应继续开发测试用例和自动化测试脚本当开发人员已完成单元测试时:·测试人员应开始执行测试(自动和手动)·缺陷根据需要被提出、修复和重新测试

已完成

当用户故事的验收测试已经完成时:·在产品负责人的许可下,剩余的缺陷已被添加到产品待办列表中·准备好 Sprint 演示和产品负责人、利益干系人的验收工作·回归/发布/集成AT测试工程师应考虑如何将用户故事集成到端到端测试环境中进行集成回归测试

已接受

当用户故事已被演示且被产品负责人接受时,回归/发布/集成/UAT 测试工程师开始将用户故事的功能合并到端到端回归测试套件中并进行测试

用户故事相关术语比较

1) AC(Acceptance Criteria,验收标准用户故事验收测试和用户验收测试的区别

真正在做验收测试的测试用例数量比验收标准要多得多,因为还需要设计很多异常测试用例,而这些是产品负责人不知道的

用户验收测试是内部测试通过后,在最终用户或最终用户代表验收前进行的测试,它是从最终用户的角度进行的测试,验证产品是否满足用户的真正需要。

2)DOR 和 DOD 的区别

DOR (Definitionof Ready,准备就绪的定义):应该确保产品待办列表顶端的用户故事已准备就绪,可以随时放入 Sprint 中让开发团队进行任务拆分和研发

检查表:

  • 是否有足够的细节?
  • 是否识别出依赖关系?
  • 验收标准是否清晰可测试?
  • 性能标准(如果有) 是否已定义且可测试?

DOD(Definition of Done 完成的定义)

  • 版本发布(Release)的DOD
  • Sprint 迭代的 DOD
  • 针对用户故事的 DOD

3)DOD 和AC 的区别

DOD主要针对我们在 Sprint 期间正在开发的产品增量。

AC(Acceptance Criteria,验收标准),AC 是对 DOD的补充。多个DOD后定义AC。

3 敏捷测试计划

敏捷测试计划策略

传统测试方法会在项目前期就开始制订非常细致的测试计划、把测试中的各种因素都考虑进去

敏捷测试根据产品待办列表的粗粒度需求(如史诗、特性等)定成粗粒度的概要测试计划,不做详细计划

敏捷测试计划过程

传统测试计划是一次性的计划(Plan),敏捷测试计划是一个过程(Planning)

敏捷中的测试任务

测试任务管理与跟踪

某用户故事:

  • 第一个是开发功能的任务-->开发人员
  • 第二个是编写此用户故事的验收测试用例->Sprint 内测试工程师
  • 第三个是开发自动化测试验收脚本的任务->测试开发工程师
  • DOD:这个用户故事下面所有的任务是否都已完成。不能只以开发完成为
  1. 标准
  2. 可见性:看板
  3. 可跟踪性:JIRA

通过看板可视化任务

Kanban: 20世纪 40 年代初由大野耐一为日本的丰田汽车公司开发的。2004 年,DavidJ.Anderson 第一个将其应用于 IT 软件开发

看板的核心要素始终植根于以下 4 个原则。

  1. 可视化
  2. 限制在制品:“Stop Starting”和“Start Finishing”
  3. 管理“流”
  4. 持续改进

看板3列:

  1. To DO :这一栏列出了尚未开发的任务
  2. Doing : 送一栏列出了正在进行的任务
  3. Done : 这一栏列出了已完成的任务

4 某大型客户的测试活动日历

  1. Sprint 的起始时间。最后一天不在周末,防止最后一天发布出现问题,周末没人维护。
  2. 产品负责人在第一周结束时和团队有一个接触点。及时纠偏
  3. 在第二周周中会进行下一次 Sprint 的用户故事梳理活动,确保在下一个 Sprint 计划到来时,用户故事已经变得比较具体详细,以及已满足 DOR 的条件。
  4. 在整次 Sprint 中,测试活动和 DevOps 活动是紧密联系的。

5 敏捷中的测试度量

  1. 度量团队目标而不是度量个人绩效
  2. 看全局性的指标组合,而不是单个指标

参考指标

(1)代码覆盖率

Martin Fowler 等众多专家都认为追求 100%的代码覆盖率是没有意义的,一般能够达到 80%以上就已经很好了。

(2)验收测试通过率

总体质量 = 缺陷数/当次版本用户故事点的总数×100%

(3)每用户故事点缺陷率

通过自动化测试来验收的用户故事数/总用户故事数×100%

目录
相关文章
|
3月前
|
人工智能 自然语言处理 测试技术
从人工到AI驱动:天猫测试全流程自动化变革实践
天猫技术质量团队探索AI在测试全流程的落地应用,覆盖需求解析、用例生成、数据构造、执行验证等核心环节。通过AI+自然语言驱动,实现测试自动化、可溯化与可管理化,在用例生成、数据构造和执行校验中显著提效,推动测试体系从人工迈向AI全流程自动化,提升效率40%以上,用例覆盖超70%,并构建行业级知识资产沉淀平台。
从人工到AI驱动:天猫测试全流程自动化变革实践
|
3月前
|
数据采集 存储 人工智能
从0到1:天猫AI测试用例生成的实践与突破
本文系统阐述了天猫技术团队在AI赋能测试领域的深度实践与探索,讲述了智能测试用例生成的落地路径。
从0到1:天猫AI测试用例生成的实践与突破
|
4月前
|
测试技术 开发者 Python
Python单元测试入门:3个核心断言方法,帮你快速定位代码bug
本文介绍Python单元测试基础,详解`unittest`框架中的三大核心断言方法:`assertEqual`验证值相等,`assertTrue`和`assertFalse`判断条件真假。通过实例演示其用法,帮助开发者自动化检测代码逻辑,提升测试效率与可靠性。
425 1
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
如何让AI更“聪明”?VLM模型的优化策略与测试方法全解析​
本文系统解析视觉语言模型(VLM)的核心机制、推理优化、评测方法与挑战。涵盖多模态对齐、KV Cache优化、性能测试及主流基准,助你全面掌握VLM技术前沿。建议点赞收藏,深入学习。
1149 8
|
4月前
|
Java 测试技术 API
自动化测试工具集成及实践
自动化测试用例的覆盖度及关键点最佳实践、自动化测试工具、集成方法、自动化脚本编写等(兼容多语言(Java、Python、Go、C++、C#等)、多框架(Spring、React、Vue等))
230 6
|
4月前
|
人工智能 边缘计算 搜索推荐
AI产品测试学习路径全解析:从业务场景到代码实践
本文深入解析AI测试的核心技能与学习路径,涵盖业务理解、模型指标计算与性能测试三大阶段,助力掌握分类、推荐系统、计算机视觉等多场景测试方法,提升AI产品质量保障能力。
|
4月前
|
人工智能 自然语言处理 测试技术
AI测试平台的用例管理实践:写得清晰,管得高效,执行更智能
在测试过程中,用例分散、步骤模糊、回归测试效率低等问题常困扰团队。霍格沃兹测试开发学社推出的AI测试平台,打通“用例编写—集中管理—智能执行”全流程,提升测试效率与覆盖率。平台支持标准化用例编写、统一管理操作及智能执行,助力测试团队高效协作,释放更多精力优化测试策略。目前平台已开放内测,欢迎试用体验!
|
5月前
|
人工智能 资源调度 jenkins
精准化回归测试:大厂实践与技术落地解析
在高频迭代时代,全量回归测试成本高、效率低,常导致关键 bug 漏测。精准化测试通过代码变更影响分析,智能筛选高价值用例,显著提升测试效率与缺陷捕获率,实现降本增效。已被阿里、京东、腾讯等大厂成功落地,成为质量保障的新趋势。
|
5月前
|
搜索推荐 Devops 测试技术
避免无效回归!基于MCP协议的精准测试影响分析实践
本文揭示传统测试的"孤岛困境",提出MCP(Model Context Protocol)测试新范式,通过模型抽象业务、上下文感知环境和协议规范协作,实现从机械执行到智能测试的转变。剖析MCP如何颠覆测试流程,展示典型应用场景,并提供团队落地实践路径,助力测试工程师把握质量效率革命的新机遇。
|
5月前
|
人工智能 缓存 自然语言处理
大模型性能测试完全指南:从原理到实践
本文介绍了大模型性能测试的核心价值与方法,涵盖流式响应机制、PD分离架构、五大关键指标(如首Token延迟、吐字率等),并通过实战演示如何使用Locust进行压力测试。同时探讨了多模态测试的挑战与优化方向,帮助测试工程师成长为AI系统性能的“诊断专家”。