开发者社区> 华章计算机> 正文

《实践者的研究方法》—— 3.5 过程评估与改进

简介:
+关注继续查看

本节书摘来自华章出版社《实践者的研究方法》一书中的第3章,第3.5节,作者罗杰 S. 普莱斯曼(Roger S. Pressman),更多章节内容可以访问云栖社区“华章计算机”公众号查看。


3.5 过程评估与改进

软件过程并不能保证软件按期交付,也不能保证软件满足客户要求,或是软件具备了长期质量保证的技术特点(第19章)。软件过程模型必须与切实的软件工程实践相结合(本书第二部分)。另外,对过程本身也要进行评估,以确保满足了成功软件工程所必需的基本过程标准要求。

在过去的几十年中,人们提出了很多种不同的软件过程评估和改进方法。

用于过程改进的CMMI标准评估方法(Standard CMMI Assessment Method for Process Improvement,SCAMPI)——提供了五步的过程评估模型:启动(initiating)、诊断(diagnos-ing)、建立(establishing)、执行(acting)和学习(learning)。SCAMPI方法采用SEI的CMMI作为评估的依据 [SEI00]。

用于组织内部过程改进的CMM评估(CMM-Based Appraisal for Internal Process Improvement,CBA IPI)——采用SEI的CMM作为评估的依据[Dun01],提供了一种诊断方法,用以分析软件开发机构的相对成熟度。

SPICE (ISO/IEC 15504)——该标准定义了软件过程评估的一系列要求。该标准的目的是帮助软件开发组织建立客观的评价体系,以评估定义的软件过程的有效性[ISO08]。

软件ISO 9001:2000——这是一个通用标准,任何开发组织如果希望提高所提供的产品、系统或服务的整体质量,都可以采用这个标准。因此,该标准可直接应用于软件组织和公司[Ant06]。

有关软件评估和过程改进方法的详细讨论参见第37章。

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
斯坦福最新研究警告:别太迷信大模型涌现能力,那是度量选择的结果(2)
斯坦福最新研究警告:别太迷信大模型涌现能力,那是度量选择的结果
11 0
斯坦福最新研究警告:别太迷信大模型涌现能力,那是度量选择的结果(1)
斯坦福最新研究警告:别太迷信大模型涌现能力,那是度量选择的结果
19 0
如何解释AI做出的决策?一文梳理算法应用场景和可解释性(1)
如何解释AI做出的决策?一文梳理算法应用场景和可解释性
26 0
如何解释AI做出的决策?一文梳理算法应用场景和可解释性(2)
如何解释AI做出的决策?一文梳理算法应用场景和可解释性
20 0
由人工智能参数讨论基于Bug的软件测试质量分析
由人工智能参数讨论基于Bug的软件测试质量分析
36 0
运筹优化学习22:新项目研发项目进度制定与优化研究(二)
运筹优化学习22:新项目研发项目进度制定与优化研究
32 0
Umang 谈部署可解释机器学习面临的挑战(上)
本文是由 Umang 博士分享关于 ML 可解释性方面面临的挑战。
50 0
Umang 谈部署可解释机器学习面临的挑战(下)
本文是由 Umang 博士分享关于 ML 可解释性方面面临的挑战。
35 0
企业在研究和产品开发中测试人工智能的可能性和局限性
人工智能在研发过程中正变得无价,但它无法解决所有挑战。
59 0
告别 AI 模型黑盒:可解释机器学习研究报告
随着金融数据规模的日益增长与 AI 技术的发展,机器学习模型在金融银行业被广泛使用。高性能的机器学习模型虽然在预测能力上表现突出,但是因为模型过于复杂的结构而引发的黑盒问题,却不利于机器学习模型的大规模使用。无法解释的黑盒模型在使用过程中暴露出来的安全风险和不公正问题,使人们对黑盒模型的使用变得越来越谨慎。为了应对黑盒模型的不可解释的问题,科学家们提出了可解释机器学习的研究。可解释机器学习分为内在可解释模型的研究和模型的事后解析方法两大方向。
2637 0
+关注
华章计算机
文章
问答
视频
来源圈子
更多
+ 订阅
文章排行榜
最热
最新
相关电子书
更多
代码大数据分析研究与实践
立即下载
低代码开发师(初级)实战教程
立即下载
阿里巴巴DevOps 最佳实践手册
立即下载
相关实验场景
更多