我理解的敏捷是什么

简介: 我理解的敏捷是什么.

640.jpg

敏捷,近几年非常火热的一个词,当前团队也在做新一轮的敏捷理论导入。后续会持续输出相关的内容。现在,我们就从头开始吧,聊聊个人对敏捷的理解。


01


640.png


上图,是两部非常具有代表性的电视剧,从研发的角度来看,可以分别代表瀑布和敏捷两类研发模式。


《延禧攻略》,按标准的影视制作流程:编剧(需求文档输出)、开拍及后期制作(研发)、送审(测试)、上映(上线)。能不能得到观众的喜爱,靠的是宣传及主角IP。在大量的资金投入下,效果不会太差。但是,它的缺点也是很明显的,在影视制作过程中,如果遇到突发风险,没有修改的余地。比如某凡事件,让多少影视作品无法正常上线。


《Game Of Thrones》,按季播放的美剧,它的特点是把一个大IP切成小任务,边写边拍边播,观众看到剧的等待时间变短了(交付时间变短)。而且,它还可以根据用户的反馈不断的修改剧情,琼恩·雪诺明明已经死了,但是用户不买账,在后期又复活了。这就是敏捷的特点,小批量快速交付,及时收集用户反馈。在更短的周期内价值最大化,同时,也提升了应对变化的能力。


02

640.png



都说现在是VUCA的时代,需要我们拥有应对变化的能力,而敏捷,刚好为我们提供了这样一种能力。敏捷是应对既快速变化又复杂世界的一种策略,敏捷也是打造团队和创造价值的一种方式,选择适应变化是敏捷的精髓。


敏捷增强了管理变化优先级的能力:由于每个迭代都需要小批量的交付有价值的内容,那么每个迭代做些什么就显得特别重要,这需要产品经理能够明确的把握需求的优先级,有效地做出调整,对应来自客户和市场的变化。


敏捷提升了交付时效:原来一个项目,用户可能要等三个月、半年甚至更长的周期,才能看到项目内容,在这其间,项目对用户是黑盒的,最终给到用户的是惊喜还是惊吓,是不可预知的。通过敏捷,我们可以更早(一般是1个月或者2周)的交付部分有价值的功能,让用户尽早地参与进来,一起对最终的交付内容做保障。


注意,是提升了交付时效,不是提升了研发效率,这是两码事,也是大家对敏捷误会最最深的点之一。


当然,敏捷还会带来其他的收益,例如项目可视化、业务研发协同、降低项目风险等,不一一展开。


03


那么,是不是所有的场景都合适用敏捷来解决呢?答案显然是不是的,没什么东西是银弹,能解决所有问题。


640.png


如上,左边是根据Cynefin框架演化而来的,可以用敏捷来解决问题的场景。从需求和技术的不确定性来划分。


对于需求明确、技术明确的简单问题,那就用瀑布模式直接开干;

对于需求不确认,技术也不确认的混乱领域,需要通过创新来解决的,也不适合用敏捷的方式来进行;

剩余的其他领域,都可以通过敏捷的方式去尝试解决。

 

右边,通过业务与研发的信息透明度,划分了4个领域,分为了积压需求、优化需求、政治任务需求及空降需求。


从这个角度来看,敏捷研发过程可以帮助业务把需求透明可视化出来,同时可以知道研发有哪些优化需求,降低沟通成本,让研发知道业务想要做什么,让业务知道为了更好地实现业务,研发有哪些优化类需求,在迭代版本中去动态平衡。


同时,对于空降需求,也可以尽早地反馈,让研发知道业务还有哪些需求是有可能要做的,提交沟通、布局,避免到了迭代快开始时,研发才知道。


04


敏捷从来就不是也不应该是“目标”,它只是我们达成目标的途径之一。我们最终关注的是价值的实现和交付。上山的路远不止一条。

640.png



不同的业务场景和组织形态,可以选择不一样的落地实践,没有最好,只有适合。最需要我们敏捷的,是我们的思维。

640.png



如果只是生硬的去落地敏捷实践,而不从思维上做出改变,很难说你了解敏捷。


Dont do Agile, be Agile


往期推荐:

从一个小角度观察敏捷实践

需求端到端交付管理

关于看板的思考与总结

测试质量保障的影响因素

测试如何构建快速反馈的能力

相关文章
|
Java
SonarQube使用教程
SonarQube使用教程
2328 0
|
14天前
|
存储 关系型数据库 分布式数据库
PostgreSQL 18 发布,快来 PolarDB 尝鲜!
PostgreSQL 18 发布,PolarDB for PostgreSQL 全面兼容。新版本支持异步I/O、UUIDv7、虚拟生成列、逻辑复制增强及OAuth认证,显著提升性能与安全。PolarDB-PG 18 支持存算分离架构,融合海量弹性存储与极致计算性能,搭配丰富插件生态,为企业提供高效、稳定、灵活的云数据库解决方案,助力企业数字化转型如虎添翼!
|
9天前
|
缓存 并行计算 PyTorch
144_推理时延优化:Profiling与瓶颈分析 - 使用PyTorch Profiler诊断推理延迟,优化矩阵运算的独特瓶颈
在2025年的大模型时代,推理时延优化已经成为部署LLM服务的关键挑战之一。随着模型规模的不断扩大(从数亿参数到数千亿甚至万亿参数),即使在最先进的硬件上,推理延迟也常常成为用户体验和系统吞吐量的主要瓶颈。
341 147
|
9天前
|
机器学习/深度学习 存储 缓存
92_自我反思提示:输出迭代优化
在大型语言模型(LLM)应用日益普及的今天,如何持续提升模型输出质量成为了业界关注的核心问题。传统的提示工程方法往往依赖一次性输入输出,难以应对复杂任务中的多轮优化需求。2025年,自我反思提示技术(Self-Reflection Prompting)作为提示工程的前沿方向,正在改变我们与LLM交互的方式。这项技术通过模拟人类的自我反思认知过程,让模型能够对自身输出进行评估、反馈和优化,从而实现输出质量的持续提升。
392 136
|
3天前
|
人工智能 移动开发 自然语言处理
阿里云百炼产品月刊【2025年9月】
本月通义千问模型大升级,新增多模态、语音、视频生成等高性能模型,支持图文理解、端到端视频生成。官网改版上线全新体验中心,推出高代码应用与智能体多模态知识融合,RAG能力增强,助力企业高效部署AI应用。
223 1
|
13天前
|
存储 人工智能 搜索推荐
终身学习型智能体
当前人工智能前沿研究的一个重要方向:构建能够自主学习、调用工具、积累经验的小型智能体(Agent)。 我们可以称这种系统为“终身学习型智能体”或“自适应认知代理”。它的设计理念就是: 不靠庞大的内置知识取胜,而是依靠高效的推理能力 + 动态获取知识的能力 + 经验积累机制。
399 135
|
13天前
|
存储 人工智能 Java
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
本文讲解 Prompt 基本概念与 10 个优化技巧,结合学术分析 AI 应用的需求分析、设计方案,介绍 Spring AI 中 ChatClient 及 Advisors 的使用。
516 132
AI 超级智能体全栈项目阶段二:Prompt 优化技巧与学术分析 AI 应用开发实现上下文联系多轮对话
|
13天前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
525 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)