Aligning Agents via Planning: A Benchmark for Trajectory-Level Reward

简介: 本研究提出Plan-RewardBench轨迹级奖励建模基准,填补了工具型智能体长时序轨迹奖励模型评估的空白,通过严谨的数据集构建与统一测评,证实现有奖励模型在轨迹级判别上存在显著缺陷,长时序规划、动态约束跟踪、安全拒绝等能力亟待提升,为智能体对齐研究提供了关键测评与数据支撑。

作者信息

南京大学新型软件技术国家重点实验室、南京大学智能科学技术学院、阿里巴巴高德地图

研究背景

  1. 大语言模型正从被动对话系统演进为可自主调用工具、完成复杂推理的智能体系统,模型行为从单轮回复转变为包含用户输入、推理、工具执行与环境反馈的轨迹序列。
  2. 传统基于人类反馈的强化学习(RLHF)中,奖励模型(RM)是模型对齐的核心信号源,但现有奖励模型评估基准存在明显缺陷:
    • 主流基准仅聚焦短上下文场景下的单轮回复偏好评估,缺乏对复杂推理过程与多轮交互的覆盖;
    • 长上下文奖励模型研究多依赖人工扩展上下文,无法刻画智能体工作流的自然复杂度与动态依赖关系;
    • 专用工具使用基准仅验证单轮原子动作正确性,忽略连贯的长时序规划行为评估;
    • 现有方案无法在工具集成环境中,对奖励模型区分优质与劣质智能体轨迹的能力进行严谨测评。
  3. 智能体奖励建模需同时评估最终结果与中间步骤的合理性、一致性与安全性,现有评估体系无法满足该需求。

研究目的

  1. 填补工具集成环境下轨迹级奖励模型专用评估基准的空白,解决现有基准无法测评长时序、多步骤智能体轨迹奖励建模能力的问题。
  2. 构建覆盖复杂工具使用场景的轨迹级偏好基准,精准测评奖励模型在智能体规划逻辑、工具使用保真度、安全拒绝、错误恢复等维度的判别能力。
  3. 提供可复用的智能体偏好数据构建方案,为判别式奖励模型(DRM)、生成式奖励模型(GRM)与智能体强化学习提供高质量训练信号。
  4. 诊断现有奖励模型在轨迹级评估中的失效模式,为下一代规划中心型智能体的对齐研究提供方向。

本文核心贡献

image

  1. 提出首个面向复杂工具智能体的轨迹级偏好基准Plan-RewardBench,覆盖安全拒绝、工具无关/不可用、复杂规划、鲁棒错误恢复四大任务家族,可高分辨率测评奖励模型的轨迹判别能力。
  2. 设计可复用的多源智能体偏好数据构建流程,融合多模型自然推演、规则扰动、最小编辑扰动三种方式,为轨迹级奖励模型训练提供标准化数据方案。
  3. 构建包含高质量标注与高难度负样本的数据集,通过多LLM评审团+元评审过滤+人工审核保证标签可靠性,严格控制长度、格式偏差以隔离语义失效问题。
  4. 完成主流奖励模型(判别式、生成式、LLM评判器)的统一测评,揭示不同模型在长时序轨迹下的性能退化规律与典型失效模式,验证专用轨迹级奖励建模训练的必要性。

研究方法

1. 任务设定

将基准定义为轨迹成对偏好任务,每个样本包含工具环境、多轮用户交互、两条候选轨迹,依据规划质量、工具接地性、恢复行为、拒绝质量等标准给出金标准偏好标签,支持成对比较与单点打分两种评估模式。

2. 数据来源与构建

  1. 种子数据:基于Toucan项目的真实MCP工具注册信息与工具执行结果;
  2. 候选轨迹生成:使用Qwen-Agent、OpenAIAgent运行多模型、多采样参数推演,获取自然成功与失败轨迹(占比70%);
  3. 高难度负样本构建:
    • 规则扰动:注入约束丢失、参数错误、盲目重试等可控失效;
    • 最小编辑扰动:对高分轨迹小幅修改,保留风格同时引入特定缺陷;
  4. 轨迹过滤:剔除格式错误、执行失败等异常样本,统计长度、轮数等特征用于分层分析。

3. 场景家族与标注

  1. 四大场景:安全拒绝、工具无关/不可用、复杂规划、鲁棒错误恢复,各场景设计专属评判规则与负样本类型;
  2. 标注流程:多LLM评审团1-5分打分→元评审处理分歧→人工分层审核→成对组装(控制难度与偏差)→独立成对校验确认标签。

4. 评估方案

  1. 测评模型:判别式奖励模型(DRM)、生成式奖励模型(GRM)、通用LLM评判器;
  2. 输入表示:统一提供工具环境、对话历史、完整轨迹,固定环境与用户意图,仅对比智能体轨迹差异;
  3. 指标与偏差控制:核心指标为成对准确率,采用A/B交换缓解位置偏差,按轨迹长度、轮数、场景难度分层分析。

研究结果

  1. 整体性能:Plan-RewardBench是严苛测评基准,无模型在所有维度占优,最优模型Qwen-Plus整体准确率69.96%,长时序复杂规划任务上模型普遍难以突破70%。
  2. 模型类型差异:
    • 通用LLM评判器整体表现最优,但长上下文退化最明显;
    • 大参数量判别式奖励模型(Inf-ORM-Llama3.1-70B)竞争力强,准确率69.21%,在错误恢复场景表现突出;
    • 开源判别式奖励模型在安全拒绝场景接近随机水平。
  3. 场景表现:
    • 安全拒绝场景极化最严重,模型准确率跨度40.69%–84.80%;
    • 工具无关场景易受“努力偏差”影响,偏好冗余工具调用;
    • 复杂规划场景随轨迹长度增加,模型难以跟踪动态约束更新;
    • 错误恢复场景模型难区分盲目重试与智能修复。
  4. 长度敏感性:轨迹长度小于4k tokens时性能稳定,超过32k tokens后准确率急剧下降,部分模型低于随机水平;成对LLM评判器退化比单点判别式模型更剧烈。
  5. 下游验证:在BFCL v4工具调用任务的best-of-N重排序中,Plan-RewardBench上表现更好的评判器,下游任务提升更显著。

总结与展望

本研究提出Plan-RewardBench轨迹级奖励建模基准,填补了工具型智能体长时序轨迹奖励模型评估的空白,通过严谨的数据集构建与统一测评,证实现有奖励模型在轨迹级判别上存在显著缺陷,长时序规划、动态约束跟踪、安全拒绝等能力亟待提升,为智能体对齐研究提供了关键测评与数据支撑。

局限性

  1. 复杂规划的金标准标签存在一定主观性;
  2. 工具注册库未覆盖所有专有API;
  3. 场景分布非均匀,安全拒绝样本量较小;
  4. 当前仅支持英文、纯文本工具轨迹。

未来展望

  1. 拓展至多模态、多智能体场景的轨迹级奖励建模;
  2. 基于本基准训练专用轨迹级奖励模型,提升长时序智能体对齐效果;
  3. 完善更多工具环境与任务家族,扩展基准覆盖范围;
  4. 结合本基准的难度分级,设计课程学习式奖励模型训练方案。
相关文章
|
18天前
|
人工智能 数据可视化 安全
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
本文详解如何用阿里云Lighthouse一键部署OpenClaw,结合飞书CLI等工具,让AI真正“动手”——自动群发、生成科研日报、整理知识库。核心理念:未来软件应为AI而生,CLI即AI的“手脚”,实现高效、安全、可控的智能自动化。
34854 48
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
|
13天前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
12168 37
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
|
8天前
|
人工智能 JavaScript Ubuntu
低成本搭建AIP自动化写作系统:Hermes保姆级使用教程,长文和逐步实操贴图
我带着怀疑的态度,深度使用了几天,聚焦微信公众号AIP自动化写作场景,写出来的几篇文章,几乎没有什么修改,至少合乎我本人的意愿,而且排版风格,也越来越完善,同样是起码过得了我自己这一关。 这个其实OpenClaw早可以实现了,但是目前我觉得最大的区别是,Hermes会自主总结提炼,并更新你的写作技能。 相信就冲这一点,就值得一试。 这篇帖子主要就Hermes部署使用,作一个非常详细的介绍,几乎一步一贴图。 关于Hermes,无论你赞成哪种声音,我希望都是你自己动手行动过,发自内心的选择!
2539 26
|
30天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
45761 157
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
6天前
|
人工智能 弹性计算 安全
Hermes Agent是什么?怎么部署?超详细实操教程
Hermes Agent 是 Nous Research 于2026年2月开源的自进化AI智能体,支持跨会话持久记忆、自动提炼可复用技能、多平台接入与200+模型切换,真正实现“越用越懂你”。MIT协议,部署灵活,隐私可控。
1799 3
|
3天前
|
弹性计算 人工智能 自然语言处理
阿里云Qwen3.6全新开源,三步完成专有版部署!
Qwen3.6是阿里云全新MoE架构大模型系列,稀疏激活显著降低推理成本,兼顾顶尖性能与高性价比;支持多规格、FP8量化、原生Agent及100+语言,开箱即用。
|
1天前
|
缓存 人工智能 自然语言处理
我对比了8个Claude API中转站,踩了不少坑,总结给你
本文是个人开发者耗时1周实测的8大Claude中转平台横向评测,聚焦Claude Code真实体验:以加权均价(¥/M token)、内部汇率、缓存支持、模型真实性及稳定性为核心指标。