北大李戈团队提出大模型单测生成新方法,显著提升代码测试覆盖率

简介: 【9月更文挑战第27天】北京大学李戈团队在人工智能领域取得重要突破,提出HITS新方法,通过将待测方法分解为多个切片并利用大型语言模型逐个生成测试用例,显著提升代码测试覆盖率,尤其在处理复杂方法时效果显著,为软件开发和测试领域带来新希望。尽管存在一定局限性,HITS仍展示了巨大潜力,未来有望克服限制,推动软件测试领域的创新发展。论文详情见【https://www.arxiv.org/pdf/2408.11324】。

最近,北京大学的李戈团队在人工智能领域取得了一项重要突破。他们提出了一种名为HITS(High-coverage LLM-based Unit Test Generation via Method Slicing)的新方法,用于生成大型语言模型(LLM)的单元测试。这一方法显著提升了代码测试的覆盖率,为软件开发和测试领域带来了新的希望。

HITS方法的核心思想是将待测方法分解为多个切片,然后使用大型语言模型逐个生成测试用例。这种分而治之的策略有效地简化了分析的复杂性,使得大型语言模型能够更好地理解和覆盖每个切片中的代码逻辑。相比于传统的测试生成方法,HITS能够更有效地处理复杂方法,从而提高测试的覆盖率。

为了验证HITS方法的有效性,李戈团队进行了一系列的实验。他们选择了十个开源项目作为测试对象,并使用HITS与当前最先进的测试生成工具进行了比较。实验结果表明,HITS在代码覆盖率方面显著超过了其他工具,尤其是在处理复杂方法时。这一结果表明,HITS方法具有很大的潜力,可以成为未来软件测试领域的重要工具。

然而,HITS方法也存在一些局限性。首先,它依赖于大型语言模型的能力,因此对于一些规模较小或复杂度较低的项目,可能无法充分发挥其优势。其次,HITS方法的实现和优化需要一定的技术门槛,对于一些小型团队或个人开发者来说,可能不太容易上手。

尽管如此,HITS方法的提出仍然具有重要的意义。它不仅为软件测试领域带来了新的思想和方法,而且为大型语言模型在实际应用中的应用提供了新的思路。相信随着技术的不断进步和完善,HITS方法将能够克服自身的局限性,在更多的场景中发挥作用,为软件开发和测试领域带来更多的创新和变革。

论文地址:https://www.arxiv.org/pdf/2408.11324

目录
相关文章
|
6月前
|
数据采集 监控 机器人
浅谈网页端IM技术及相关测试方法实践(包括WebSocket性能测试)
最开始转转的客服系统体系如IM、工单以及机器人等都是使用第三方的产品。但第三方产品对于转转的业务,以及客服的效率等都产生了诸多限制,所以我们决定自研替换第三方系统。下面主要分享一下网页端IM技术及相关测试方法,我们先从了解IM系统和WebSocket开始。
120 4
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
ICLR 2025 | EDiT:一种基于 Local SGD 策略的大模型高效分布式训练方法
蚂蚁 AI Infra 团队在深度学习最核心之一的训练框架方向上持续投入与创新,实现了提升资源利用率、加速训练、提升训练稳定性等目标。我们提出的 EDiT 方法,即为其中一项工作。
|
2月前
|
机器学习/深度学习 人工智能 并行计算
AI部署架构:A100、H100、A800、H800、H20的差异以及如何选型?开发、测试、生产环境如何进行AI大模型部署架构?
AI部署架构:A100、H100、A800、H800、H20的差异以及如何选型?开发、测试、生产环境如何进行AI大模型部署架构?
AI部署架构:A100、H100、A800、H800、H20的差异以及如何选型?开发、测试、生产环境如何进行AI大模型部署架构?
|
16天前
|
负载均衡 测试技术
|
6天前
|
测试技术
软考软件评测师——可靠性测试测试方法
软件可靠性是指软件在规定条件和时间内完成预定功能的能力,受运行环境、软件规模、内部结构、开发方法及可靠性投入等因素影响。失效概率指软件运行中出现失效的可能性,可靠度为不发生失效的概率,平均无失效时间(MTTF)体现软件可靠程度。案例分析显示,嵌入式软件需满足高可靠性要求,如机载软件的可靠度需达99.99%以上,通过定量指标评估其是否达标。
|
6天前
|
测试技术
软考软件评测师——黑盒测试测试方法
本内容系统介绍了黑盒测试的核心方法与实践技巧。主要包括:等价类划分法(有效/无效输入及划分原则)、边界值分析法(聚焦边界点选取测试数据)、决策表法(规则计算与表格优化)、边界值设计七原则(涵盖输入输出与隐藏边界)以及黑盒测试方法体系(多种测试方法概述)。特别详细讲解了场景法实践指南,通过模拟用户操作流程,区分基本流与备选流,并生成优化的测试用例矩阵,为全面覆盖功能测试提供指导。
|
6天前
|
消息中间件 缓存 监控
性能测试怎么做?方法、流程与核心要点解析
本文系统阐述了性能测试的核心方法论、实施流程、问题定位优化及报告编写规范。涵盖五大测试类型(负载验证、极限压力、基准比对、持续稳定性、弹性扩展)与七项关键指标,详解各阶段任务如需求分析、场景设计和环境搭建,并提供常见瓶颈识别与优化实战案例。最后规范测试报告内容框架与数据可视化建议,为企业级实践提出建立基线库、自动化回归和全链路压测体系等建议,助力高效开展性能测试工作。
|
2月前
|
人工智能 算法 数据库
美团面试:LLM大模型存在哪些问题?RAG 优化有哪些方法?_
美团面试:LLM大模型存在哪些问题?RAG 优化有哪些方法?_
|
4月前
|
编解码 缓存 Prometheus
「ximagine」业余爱好者的非专业显示器测试流程规范,同时也是本账号输出内容的数据来源!如何测试显示器?荒岛整理总结出多种测试方法和注意事项,以及粗浅的原理解析!
本期内容为「ximagine」频道《显示器测试流程》的规范及标准,我们主要使用Calman、DisplayCAL、i1Profiler等软件及CA410、Spyder X、i1Pro 2等设备,是我们目前制作内容数据的重要来源,我们深知所做的仍是比较表面的活儿,和工程师、科研人员相比有着不小的差距,测试并不复杂,但是相当繁琐,收集整理测试无不花费大量时间精力,内容不完善或者有错误的地方,希望大佬指出我们好改进!
282 16
「ximagine」业余爱好者的非专业显示器测试流程规范,同时也是本账号输出内容的数据来源!如何测试显示器?荒岛整理总结出多种测试方法和注意事项,以及粗浅的原理解析!
|
4月前
|
人工智能 自然语言处理 测试技术
AxBench:斯坦福大学推出评估语言模型控制方法的基准测试框架
AxBench 是由斯坦福大学推出,用于评估语言模型可解释性方法的基准测试框架,支持概念检测和模型转向任务,帮助研究者系统地比较不同控制技术的有效性。
108 5
AxBench:斯坦福大学推出评估语言模型控制方法的基准测试框架