通义千问团队开源全新的过程奖励模型PRM!

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
简介: 近年来,大型语言模型(LLMs)在数学推理方面取得了显著进展,但它们仍可能在过程中犯错误,如计算错误或逻辑错误,导致得出不正确的结论;即使最终答案正确,这些强大的模型也可能编造看似合理的推理步骤,这削弱了 LLMs 推理过程的可靠性和可信度。

本文转自 通义千问Qwen

近年来,大型语言模型(LLMs)在数学推理方面取得了显著进展,但它们仍可能在过程中犯错误,如计算错误或逻辑错误,导致得出不正确的结论;即使最终答案正确,这些强大的模型也可能编造看似合理的推理步骤,这削弱了 LLMs 推理过程的可靠性和可信度。

因此,自动识别推理过程中的错误,对于模型可扩展监督变得越来越重要。

过程奖励模型(Process Reward Models, PRMs)作为数学推理过程监督中的一种有前途的方法出现,旨在识别和减轻推理过程中的中间错误。

近日,通义千问Qwen团队开源了全新的数学推理过程奖励模型 Qwen2.5-Math-PRM,共72B及7B尺寸两个版本,两个模型性能均超越同类开源过程奖励模型。特别是在识别推理错误步骤能力上,Qwen2.5-Math-PRM 以7B的小尺寸就超越了 GPT-4o。

同时,团队还开源了首个步骤级的评估标准 ProcessBench,为大模型推理过程错误评估提供新的标准参考。

01 .Process Reward Model 开源

基于PRM的理念,Qwen团队提出了一种简单有效的过程奖励数据构造方法,将PRM模型常用的蒙特卡洛估计方法(MC estimation)与模型评判(LLM-as-a-judge)创新融合,提供更可靠的推理过程反馈。

Qwen团队发布了两个 PRMs,即 Qwen2.5-Math-PRM-7B 和 Qwen2.5-Math-PRM-72B,它们分别在 Qwen2.5-Math-7B-Instruct 和 Qwen2.5-Math-72B-Instruct 上进行微调得来,两个 PRM 模型的数据利用率和评测性能表现均显著提高。

这两个模型均已在魔搭社区开源:

02 Best-of-N 评测结果

在评估方面,以往的研究主要依赖于响应级别的 Best-of-N(BoN)评估,即根据PRM从N个候选答案中选择得分最高的响应。

按照Qwen2.5-Math的方法,Qwen团队从多个数学基准测试中用 Qwen2.5-Math-7B-Instruct 采样了八个回答(即N=8),包括 GSM8K、MATH、Minerva Math、GaoKao 2023 En、OlympiadBench、College Math和MMLU STEM。每个候选回答的得分是该回答中每个步骤的分数乘积。Qwen团队将八次采样中的多数投票结果(maj@8)作为基线,将pass@8(即在八次采样中有任意一个采样得出正确最终答案的测试样本比例)作为上限。

如下表所示,Qwen2.5-Math-PRM-7B 相比其他同等规模的PRMs表现出更优的性能。值得注意的是,它在所有7项任务中均优于maj@8,平均提高了1.4%。此外,Qwen2.5-Math-PRM-72B 的整体性能略优于 Outcome Reward Model (ORM) Qwen2.5-Math-RM-72B,特别是在 Minerva Math 和 MMLU STEM 任务中表现显著。

03 .全新ProcessBench评估标准开源

为更好衡量模型识别数学推理中错误步骤的能力,Qwen团队提出了全新的评估标准ProcessBench。

ProcessBench 由3,400个测试案例组成,主要集中在竞赛和奥林匹克级别的数学问题上。每个测试案例包含一个逐步解决方案,并由人类专家标注错误位置。模型需要识别出第一个错误的步骤,或者得出所有步骤都正确的结论。

ProcessBench 可以用于评估两种类型的模型:PRMs和批评模型,后者通过提示通用语言模型来逐步检查回答中的步骤。

在 ProcessBench 上,Qwen团队评估了最新的 PRMs,以测量其识别错误步骤的能力。

与 LLM-as-judge 相比,Qwen2.5-Math-PRM-7B 以较小规模在所有开源LLM 中表现出色;对于闭源模型,Qwen2.5-Math-PRM-7B 超越了 GPT-4o-0806,但在性能上仍与 o1-mini 存在差距。

此外,与现有的PRMs相比,Qwen2.5-Math-PRM-7B 和Qwen2.5-Math-PRM-72B 都显示出显著的优势。一个有趣的观察是,ORM Qwen2.5-Math-RM-72B 在识别步骤错误方面也表现出不错的能力,甚至超过了某些开源PRMs。

04 .探索模型推理前沿

ProcessBench 展示了现有PRMs面临的挑战,并填补了 PRMs 步骤级别评估的空白。除了开源 PRMs 以外,Qwen团队还在论文中通过广泛的实证研究识别了当前PRMs数据构建方法的局限性,并揭示了仅使用响应级别 BoN 评估 PRMs 的潜在偏差。

希望 ProcessBench、PRM 的最佳实践能够促进未来对推理过程监督的研究和开发。

更多细节请查看论文:

The Lessons of Developing Process Reward Models in Mathematical Reasoning

https://arxiv.org/pdf/2501.07301

点击链接阅读原文:通义千问2.5-Math-PRM-7B

目录
相关文章
|
2天前
|
人工智能 开发工具 C++
利用通义灵码AI在VS Code中快速开发扫雷游戏:Qwen2.5-Max模型的应用实例
本文介绍了如何利用阿里云通义灵码AI程序员的Qwen2.5-Max模型,在VS Code中一键生成扫雷小游戏。通过安装通义灵码插件并配置模型,输入指令即可自动生成包含游戏逻辑与UI设计的Python代码。生成的游戏支持难度选择,运行稳定无Bug。实践表明,AI工具显著提升开发效率,但人机协作仍是未来趋势。建议开发者积极拥抱新技术,同时不断提升自身技能以适应行业发展需求。
14866 4
|
9天前
|
机器学习/深度学习 人工智能 监控
阿里通义开源全模态大语言模型 R1-Omni:情感分析成绩新标杆!推理过程全程透明,准确率飙升200%
R1-Omni 是阿里通义开源的全模态大语言模型,专注于情感识别任务,结合视觉和音频信息,提供可解释的推理过程,显著提升情感识别的准确性和泛化能力。
128 10
阿里通义开源全模态大语言模型 R1-Omni:情感分析成绩新标杆!推理过程全程透明,准确率飙升200%
|
15天前
|
机器学习/深度学习 人工智能 机器人
阿里通义开源推理模型新王者!QwQ-32B:性能直逼671B的DeepSeek-R1
QwQ-32B 是阿里巴巴开源的新型推理模型,基于强化学习训练,具备强大的数学推理和编程能力,性能媲美更大参数量的模型。
416 8
阿里通义开源推理模型新王者!QwQ-32B:性能直逼671B的DeepSeek-R1
|
1天前
|
人工智能 自然语言处理 IDE
通义灵码 Visual Studio 终于支持模型切换
如需使用灵码模型选择,需要开发者将灵码 IDE 插件更新到最新版,前往下载安装包安装
42 0
通义灵码 Visual Studio 终于支持模型切换
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
云上一键部署通义千问 QwQ-32B 模型,阿里云 PAI 最佳实践
3月6日阿里云发布并开源了全新推理模型通义千问 QwQ-32B,在一系列权威基准测试中,千问QwQ-32B模型表现异常出色,几乎完全超越了OpenAI-o1-mini,性能比肩Deepseek-R1,且部署成本大幅降低。并集成了与智能体 Agent 相关的能力,够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。阿里云人工智能平台 PAI-Model Gallery 现已经支持一键部署 QwQ-32B,本实践带您部署体验专属 QwQ-32B模型服务。
|
8天前
|
机器学习/深度学习 存储 人工智能
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
本文介绍了如何利用阿里云CAP平台一键部署QWQ-32B和DeepSeek R1两大热门推理模型。通过应用模板或模型服务两种方式,开发者可快速完成部署并验证模型效果。QWQ-32B在数学、编程等任务上表现出色,而DeepSeek R1凭借强化学习训练,具备高效推理能力。两者均支持API调用及第三方平台集成,助力智能应用开发。
千问QWQ-32B/满血DeepSeek R1部署指南,两种方式轻松玩转热门推理模型
|
15天前
|
机器学习/深度学习 自然语言处理 测试技术
模型上新!来通义灵码体验 QwQ-32B 推理模型!
今天,阿里云发布并开源全新的推理模型通义千问QwQ-32B。通过大规模强化学习,千问QwQ-32B在数学、代码及通用能力上实现质的飞跃,整体性能比肩DeepSeek-R1。在保持强劲性能的同时,千问QwQ-32B还大幅降低了部署使用成本,在消费级显卡上也能实现本地部署。
|
2天前
|
人工智能 IDE 测试技术
通义灵码2.0 - AI 程序员: AI 编程新时代的卓越助力
通义灵码是一款强大的AI编程助手,尤其在单元测试自动生成方面表现出色。它通过简化操作流程,快速生成覆盖广泛、质量较高的测试用例,支持直接编译与运行,显著提升开发效率。相比人工编写,通义灵码能大幅缩短时间成本,并更全面地覆盖边界和异常情况,但特定业务逻辑仍需人工补充。作为开发者的好帮手,它助力高效完成高质量单元测试,推动软件开发迈向新台阶。
113 83
|
11天前
|
设计模式 人工智能 前端开发
通义灵码2.0 AI 程序员体验官招募活动---通义灵码评测
在大模型不断更新迭代的当下,众多大厂纷纷推出自家的 AI 编码助手。其中,阿里云的通义灵码堪称市场上最为成熟的产品之一,紧随其后的则是腾讯的 AI 助手。在近期实际项目开发过程中,我使用了通义灵码助手,其最新版本展现出了令人惊叹的强大性能。在一些模块编码任务上,通义灵码表现尤为出色,生成的代码在命名规范性、易扩展性以及易读性方面,甚至超越了大多数普通程序员。通义灵码在生成代码时,不仅会考量设计模式,遵循重构原则,还具备强大的 bug 检测与修复能力,在单元测试方面同样表现优异。接下来,本文将通过一个小游戏的实例,对通义灵码的各项功能展开测试。
42 1
通义灵码2.0 AI 程序员体验官招募活动---通义灵码评测
|
2天前
|
人工智能 JavaScript 程序员
手把手带你上手通义灵码 2.0,体验 AI 程序员加持下的智能编码助手
手把手带你上手通义灵码 2.0,体验 AI 程序员加持下的智能编码助手

热门文章

最新文章