EvalPlanner:基于“计划-执行”双阶段的大语言模型评估框架

本文涉及的产品
实时计算 Flink 版,1000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: EvalPlanner是一种创新的大语言模型(LLM)评估算法,采用计划-执行双阶段范式,生成无约束的评估计划并执行,从而提升评估的系统性和可靠性。该系统包含评估计划、计划执行模块和最终判决三个核心组件,通过自训练循环优化计划和执行过程。EvalPlanner在多个基准测试中表现出色,特别是在数据效率和泛化能力方面,为构建高效、稳健的LLM评估模型提供了新方向。

大语言模型(LLM)评估系统在生成思维链(Chain-of-Thought, CoT)序列时,需要系统地捕捉评估过程中的推理步骤。但是由于缺乏人工标注的CoT训练数据,以及预定义评估提示在复杂任务中的局限性,构建高质量的LLM评估模型面临重大挑战。另外手动调整评估指令的方法在面对多样化和复杂任务时表现出明显的局限性。

为应对这些挑战,研究团队提出了EvalPlanner[1],这是一种创新的LLM评估算法。该算法采用计划-执行的双阶段范式,首先生成无约束的评估计划,随后执行该计划并做出最终判断。这种方法显著提升了评估过程的系统性和可靠性。

核心方法论

系统架构

EvalPlanner的架构包含三个核心组件,如下图所示:

具体来说,系统包含以下关键要素:

a) 评估计划(z)

  • 基于输入指令x,系统制定具体的响应评估策略
  • 计划设计注重灵活性和通用性

b) 计划执行模块

  • 依序执行评估计划的各个步骤
  • 分析目标响应a和b,生成详细的评估结果

c) 最终判决(y)

  • 在评判LLM(参数θ)的框架下,将计划z和执行e作为潜变量
  • 判决生成过程可表述为:

工作流程

系统的整体工作流程如下图所示:

主要步骤包括:

  1. 从分布P中采样多个评估计划z
  2. 对每个计划,从分布E中采样多个执行路径e
  3. 通过自训练循环优化计划和执行过程
  4. 在测试阶段,模型生成结构化的CoT输出:ỹ = (z̃, ẽ, ỹ)

训练数据生成方法

提示词选择与响应对生成

系统采用两类核心任务领域:

  • 通用指令执行任务- 通过对原始指令引入噪声生成对比样本- 原始指令响应作为正例,噪声指令响应作为负例
  • 数学推理任务- 采样多个候选响应- 正确解答作为正例,错误解答作为负例

评估计划生成

系统采用通用且无约束的计划生成提示模板,该模板仅基于输入指令查询经过指令调优的LLM以获取初始计划。提示模板的核心内容如下:

 We want to evaluate the quality of the responses provided by AI assistants to
 the user question displayed below. For that, your task is to help us build an 
 evaluation plan that can then be executed to assess the response quality. 
 Whenever appropriate, you can choose to also include a step-by-step reference 
 answer as part of the evaluation plan. Enclose your evaluation plan between 
 the tags “[Start of Evaluation Plan]” and “[End of Evaluation Plan]”.

 [User Question]
 {instruction}

计划执行生成

计划执行阶段采用种子模型,结合指令和响应对,基于生成的计划进行推理并产生判决。

 Please act as an impartial judge and evaluate the quality of the responses 
 provided by two AI assistants to the user question displayed below. You 
 should choose the assistant that follows the user’s instructions and answers
 the user’s question better. Your evaluation should consider factors such as 
 the helpfulness, relevance, accuracy,depth, creativity, and level of detail 
 of their responses. Begin your evaluation by comparing the two responses and 
 provide a short explanation. Avoid any position biases and ensure that the 
 order in which the responses were presented does not influence your decision. 
 Do not allow the length of the responses to influence your evaluation. Do not 
 favor certain names of the assistants. Be as objective as possible. After 
 providing your explanation, output your final verdict by strictly following 
 this format: “[[A]]” if assistant A is better, “[[B]]” if assistant B is better.

 [[User Question]]
 {instruction}

 [The Start of Assistant A’s Answer]
 {response A}
 [The End of Assistant A’s Answer]

 [The Start of Assistant B’s Answer]
 {response B}
 [The End of Assistant B’s Answer]

这种分离式架构具有两个主要优势:

确保执行过程严格遵循预定计划

通过对同一计划采样多个执行路径,增加评估数据的多样性

构建计划-执行偏好对

对于每个输入指令:

  • 采样|P|个计划
  • 每个计划采样|E|个执行路径
  • 考虑响应对的两种顺序(a,b)和(b,a),总共生成2×|P|×|E|个CoT序列


计划与执行的优化策略

系统采用自训练循环进行优化,主要包含以下步骤:

初始监督微调(SFT)

  • 从种子模型M₀开始
  • 在正确思维子集D₁ᶜ上进行微调
  • 得到模型M₁ˢᶠᵀ

第一轮直接偏好优化(DPO)

  • 以M₁ˢᶠᵀ为基础
  • 在包含正确与错误思维的数据集D₁上执行DPO
  • 得到模型M₁ᴰᴾᴼ

第二轮直接偏好优化(DPO)

  • 以M₁ᴰᴾᴼ为基础
  • 在新的指令和响应对子集D₂上执行DPO
  • 得到最终模型M₂ᴰᴾᴼ

实验设置与评估

训练数据构建

  • WildChat数据集:使用自学习评估器生成综合响应
  • MATH数据集:通过Mixtral 22Bx8 Instruct模型生成多个候选解答

实验配置

训练数据规模:

  • WildChat: 17,588个独特三元组
  • MATH: 4,141个独特三元组

采样参数:

  • 每次迭代5个计划
  • 每个计划8个执行路径(每种顺序4个)
  • 温度参数0.8,top_p值0.95

基准比较

模型性能与多个基准系统进行对比:

  • 零样本评估的开源和闭源LLM
  • 具有评论功能的奖励模型
  • RewardBench排行榜上的领先模型

实验结果与分析

性能优势

EvalPlanner展现出显著的性能优势:

  • 在较少训练数据的情况下超越所有基准系统
  • 为生成式奖励模型创造新的性能记录
  • 在多个种子模型上展示方法的普适性

数据效率

系统表现出优异的数据效率:

  • 仅使用5K偏好对即达到92.3的性能分数
  • 通过迭代DPO进一步提升至93.9
  • 相比单次DPO迭代(92.5)取得明显进步

泛化能力

在多个评估基准上验证了系统的泛化能力:

  • FollowBenchEval:在多层次约束评估中超越基准13%
  • RM-Bench:展示出对内容变化的强大鲁棒性
  • JudgeBench:在多类别挑战性问题上保持竞争力



总结

EvalPlanner通过创新的计划-执行范式,成功解决了LLM评估模型面临的核心挑战。系统在多个基准测试中的出色表现,证实了该方法在构建高效、稳健的评估模型方面的有效性。特别是在数据效率和泛化能力方面的优势,为未来LLM评估系统的发展提供了新的研究方向。

论文:
https://avoid.overfit.cn/post/f7ce0fc3e984451b97da82075bfb0b27

作者:SACHIN KUMAR

目录
相关文章
|
7月前
|
缓存 自然语言处理 安全
快速调用 Deepseek API!【超详细教程】
Deepseek 强大的功能,在本教程中,将指导您如何获取 DeepSeek API 密钥,并演示如何使用该密钥调用 DeepSeek API 以进行调试。
|
7月前
|
人工智能 数据挖掘
低代码 + AI 落地实践,让业务效率翻倍,解锁未来生产力!
2025年春节,DeepSeek引发AI讨论热潮,推动“数字化”到“数智化”的革新。低代码+AI组合降低了技术门槛,加速企业智能化升级。文中通过食品加工业原料溯源、家电售后管理、发票识别打印三个案例,展示其在效率提升和市场竞争力中的作用,并介绍钉钉宜搭举办的“低代码+AI”视频创作大赛,邀请读者参与探索更多实际应用。
938 9
|
Kubernetes 监控 数据安全/隐私保护
rancher部署
Rancher 是一个 Kubernetes 管理工具,让你能在任何地方和任何提供商上部署和运行集群。 Rancher 可以创建来自 Kubernetes 托管服务提供商的集群,创建节点并安装 Kubernetes,或者导入在任何地方运行的现有 Kubernetes 集群。
387 0
|
9月前
|
存储 消息中间件 SQL
流存储Fluss:迈向湖流一体架构
本文整理自阿里云高级开发工程师罗宇侠在Flink Forward Asia 2024上海站的分享,介绍了湖流割裂的现状与挑战,Fluss湖流一体架构的设计与优势,以及未来规划。内容涵盖湖流割裂的现状、Fluss架构详解、湖流一体带来的收益,以及未来的生态扩展和技术优化。
889 11
流存储Fluss:迈向湖流一体架构
|
6月前
|
存储 JSON NoSQL
MongoDB常用命令
本文介绍了将文章评论数据存储到MongoDB中的操作方法,包括数据库和集合的基本操作。主要内容涵盖:选择与创建数据库(如`articledb`)、数据库删除、集合的显式与隐式创建及删除、文档的CRUD操作(插入、查询、更新、删除)。此外,还详细说明了分页查询、排序查询以及统计查询的方法,例如使用`limit()`、`skip()`实现分页,`sort()`进行排序,`count()`统计记录数。通过实例展示了如何高效管理MongoDB中的数据。
|
9月前
|
存储 机器学习/深度学习 人工智能
《Python 助力:人工智能模型的“瘦身”与“加速”之旅》
在人工智能蓬勃发展的今天,深度学习模型的规模和复杂度不断增加,导致存储需求大、计算资源消耗过多及推理速度受限等问题。为此,模型压缩(如剪枝、低秩分解)和量化技术应运而生,通过减少参数数量或降低精度,在不显著影响性能的前提下,优化存储和计算效率。Python 作为主流编程语言,在这些技术的实现与优化中发挥重要作用,借助 TensorFlow 和 PyTorch 等框架,开发者可以方便地进行模型压缩和量化操作。这些技术不仅提高了模型在边缘设备上的运行效率,还降低了数据中心的存储和能耗成本,推动了人工智能的广泛应用。
258 82
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
Logic-RL: 小模型也能强推理,通过基于规则的强化学习提升大语言模型结构化推理能力
这篇论文探讨了基于规则的强化学习(RL)如何提升大型语言模型(LLM)的高级推理能力。通过在程序生成的逻辑谜题上训练并强制执行结构化思考,即使是较小的模型也能开发出可转移的问题解决策略。研究引入了多层次奖励系统,包括格式、答案、推理一致性和反思奖励,以引导模型形成严谨的推理过程。实验结果表明,这种方法不仅提高了模型在逻辑任务上的性能,还在数学问题解决、代码调试等领域展现出显著的泛化能力。此外,该方法在较小模型上实现了与大模型相当甚至更优的推理表现,为资源受限环境下的高效推理提供了新途径。
662 0
Logic-RL: 小模型也能强推理,通过基于规则的强化学习提升大语言模型结构化推理能力
|
8月前
|
弹性计算 运维 监控
OS Copilot-操作系统智能助手测试报告-新人体验
测试体验OS copilo安装、启动,体验copilot的提供的`-t`、`-f`、`|`通道的指令在在精准分析、批量任务处理、文件分析的能力。并记录下来。
277 18
|
8月前
|
运维 监控 Devops
如何理解DevOps在IT环境中的应用及价值
本文介绍DevOps的定义、适用团队、实施步骤及常用工具链,帮助初创公司实现自动化流程、持续集成与交付,增强灵活性和产品质量,快速响应市场需求。
331 0
如何理解DevOps在IT环境中的应用及价值