多智能体微调实践:α-UMi 开源

简介: 近年来,为了加强大型语言模型(Large-Language Models, LLM)实时信息处理、解决专业问题的能力,催生了工具调用智能体(Tool Integrated Agent)概念

01

背景

近年来,为了加强大型语言模型(Large-Language Models, LLM)实时信息处理、解决专业问题的能力,催生了工具调用智能体(Tool Integrated Agent)概念,该方向旨在让LLM智能地决定何时及如何利用外部工具解决复杂问题。目前工具调用智能体的研究不仅限于闭源LLM如GPT-4,还聚焦于通过在工具使用数据集上微调开源LLM,开发可定制化工具调用智能体系统,以实现更广泛的应用场景。

工具调用智能体的复杂性在于,它要求LLM不仅要准确理解用户的查询意图,还要具备高超的任务规划能力、精准的工具选择与调用技巧,以及出色的总结归纳技能。其中,任务规划依赖于模型的逻辑推理能力;工具的选择与调用,则考验模型能否准确无误地编写请求;而工具调用结果的总结,则是对模型归纳总结技能的一次全面检验。传统的方法往往试图在单个开源LLM框架内整合所有这些复杂的能力,这一做法在面对容量更小的小型开源LLM时,其性能局限性尤为突出。

更为严峻的是,现实世界中的工具更新迭代速度极快,这意味着一旦外部工具发生变化,整个LLM系统可能都需要重新训练和调整,这不仅耗费大量资源,也给模型的维护和升级带来了前所未有的挑战。因此,如何设计出既能保持灵活性和适应性,又能有效应对工具更新带来的挑战的LLM代理系统,成为了当前研究亟待解决的关键问题。


为了应对上述的挑战,通义实验室提出了一种名为“α-UMi”的多LLM工具调用智能体框架。“α-UMi”将单一LLM的能力分解为三个部分模型执行:规划器、调用器和总结器。每个部分由单个LLM执行,专注于特定的功能。规划器依据系统当前状态生成策略,决定是否选择调用器或总结器生成后续输出。调用器根据策略调用具体工具,而总结器则在规划器的指导下,根据执行轨迹构建最终的用户答案。这些组件协同工作,共同完成任务。与先前的方法相比,α-UMi框架具有三大优势:

  • 每个组件针对特定角色进行训练,确保了各自功能的优化。
  • 其次,模块化设计允许各组件按需独立更新,保证了系统的适应性和维护效率。
  • 由于每个组件聚焦于单一功能,缓解了模型等容量限制,意味着可以在小型LLM对工具调用智能体进行部署。

同时,为了有效训练这一多LLM框架,α-UMi引入了一种全新的全局到局部渐进式微调策略(GLPFT),以渐进式的增加多LLM对工具调用任务的整体理解和对单一子任务的性能提升。

总之,研究工作做出了三项重要贡献:

  • 本研究揭示了小型LLM在工具学习方面的弱点,并提出了“α-UMi”多LLM框架,该框架在工具使用方面超越了现有的单一LLM方法。
  • 本研究提出了一种GLPFT微调策略,该研究是训练多LLM框架的有效实践策略。
  • 本研究进行了深入分析,探讨了数据放缩定律,并探究了多LLM框架性能优越性背后的原理。

完整内容详见研究工作:

Small LLMs Are Weak Tool Learners: A Multi-LLM Agent

https://modelscope.cn/papers/30539/summary


02

方法

α-UMi 多LLM框架

传统的工具学习智能体系统广泛采纳了ReACT框架,其核心是一个大语言模型。在接收到用户指令和系统提示后,智能体逐步解决问题。在第步中,LLM根据当前指令和系统状态生成推理依据和动作:

其中,代表前一步骤的执行轨迹。α-UMi框架对上述ReACT过程进行了拆分,以缓解工具调用智能体的复合能力需求对单个小模型对工作负载。该框架将工具学习任务分解为三个子任务,并将每个子任务分配给专门的LLM。图2展示了α-UMi的框架示意图,它包含三个独立的LLM组件:规划器、调用器 以及总结器 。每个组件模型都有其独特的任务定义、系统提示和模型输入。当接收到用户指令后,规划器逐步生成推理依据。调用器模型接收推理依据并调用工具,这种规划器-调用器-工具的迭代循环持续进行,直到规划器判断已收集到足以解决指令的信息为止。此时,规划器指导总结器生成最终答案。

全局-局部渐进式微调策略GLPFT

有效地微调上述多模型协作系统是一项复杂的任务:一方面,在训练过程中,推理依据、动作和最终答案可以相互促进,增强模型对整个代理任务的理解。另一方面,模型容量的限制使得在我们很难微调小模型同时在生成推理依据、动作和最终答案上达到性能峰值。鉴于这两点考虑,α-UMi提出了一种从全局到局部的渐进式微调(GLPFT)策略。这一策略背后的动机是首先利用推理依据、动作和最终答案生成过程中的相互增强机制。然后,一旦单一语言模型达到其性能上限,就将其拆分为规划器、调用器和总结器进行进一步的微调,以增强其在子任务上的能力,并缓解因模型容量有限导致的性能约束。


如图3所示,这一GLPFT策略包含了两个不同的阶段。第一阶段为全局微调,在该阶段中,LLM底座在原始训练数据集上进行微调,不区分具体的子任务。经过这一阶段后,LLM底座具备了如ReACT范式按顺序输出推理依据、动作和答案的能力。接着进入第二阶段:局部微调,在该阶段中,创建了三个一阶段微调结果的副本,分别作为规划器、调用器和总结器,并根据每个LLM的角色重新组织训练数据集。随后,分别对规划器、调用器和总结器在其子任务数据集上进行微调,以进一步增强它们在各自子任务上的特定能力。

下图的训练loss曲线展示了当单模型agent底座在第2个epoch结束之后拆分成planner、caller和summarizer三个模型,并获得进一步的优化空间。也揭示了这种多阶段训练的本质:当单模型agent在工具调用agent任务中到达性能上界之后,通过进一步拆分和子任务微调,多模型协作agent能够在各个子任务中获得更好的表现。

03

效果评测

静态评估

在静态评估中,本文主要在ToolBench上与其他闭源大模型和开源单模型智能体方案进行了对比,并对多项子能力进行的细粒度评价:规划准确度、动作准确度、幻觉率、工具调用参数准确度、生成回答准确度。具体实验结论如下:

  • α-UMi系统表现显著超过了ChatGPT 和工具调用开源模型ToolLLaMA,性能与GPT-4比肩。值得一提的是,ToolLLaMA需要8192的输出长度以获得令人满意的结果,当输入长度为4096时,其效果急剧下降,幻觉率飙升,而对比之下α-UMi只需要4096的输入长度,这得益于多模型框架带来的更灵活的prompt设计。
  • 对比本文作者团队复现的单模型agent框架,α-UMi也取得了性能的显著提高。
  • 在多模型协作框架模型的微调方案对比上,直接微调三个模型、或单个模型多任务微调均无法使多模型协作框架发挥效果,只有使用多阶段微调GLPFT才能达到最佳性能,突出了文章提出的GLPFT在多模型协作框架微调中的必要性。


动态评估

单纯与标注比对无法全面展示agent框架性能,因此作者也在ToolBench数据集上引入了一种真实api调用的评估方式,该评估方式对比agent框架完成任务的成功率(pass rate)和agent框架与标准baseline框架(ChatGPT-ReACT)对比的胜率(win rate)。实验结果如下:

在该真实api调用实验结果中, α-UMi依然战胜了ChatGPT和ToolLLaMA,并在成功率上取得了与GPT-4相当的结果。


数据放缩定

通过比对不同训练数据下的模型表现,我们可以发现两点结论:

除了rouge-L指标外,多模型协作的α-UMi在不同训练数据量、不同指标下都一致地超过了单模型agent架构。特别是在Plan ACC和Aug F1这类关系到工具调用agent到规划能力和工具调用能力的指标上,α-UMi对比单模型agent的表现提升更加明显,反映了文章提出的多模型协作架构对于工具调用agent的适用性。


可以观察到,单模型agent在各项指标上达到峰值所需的数据量是不同的,而α-UMi却能随着数据量的增加,在各个指标上都获得稳定的表现提升,这更加凸显了多模型协作的必要性:我们很难找到一个在所有指标上达到峰值的数据量和模型检查点,而通过多模型协作,我们可以解决这个问题。


开销分析

多模型协作会引入更多成本,作者探究了多模型协作框架在训练、推理及储存阶段的开销对比:


总体来说,多模型协作框架确实会在训练和模型参数储存上引入更高的开销,但其推理速度与单模型框架相当。当然,考虑到多模型协作agent框架使用7B底座的性能远超13B单模型agent性能,总开销也更少。这意味着我们可以选择小模型为底座的多模型协作agent框架来降低开销,并超过大模型的单模型agent框架。


样例分析

下面让我们来看几个系统执行的记录,首先是一个简单的case:



在上面的case里,用户在指令中指定了可用的一些工具,让工具调用流程变得更简单,α-UMi框架也在planner,caller和summarizer的协作中在两步之内完成了工作。

当然,现实中更复杂的情况是:用户没有指定工具,需要系统自己选择工具,并且由于工具状态变化,经常会出现工具被下架或工具所需参数定义变化等情况。让我们来看看在这种情况下α-UMi是如何通过反思解决问题的:


在上面这个case中,α-UMi在第0步试图使用video_for_simple_youtube_search来获取视频详细信息,但发现这个api已经被破坏,无法调用,因此planner转换思路,告诉caller需要尝试另外一个api,并最终通过尝试新的api发现了详细信息,最终解决了用户的任务。

04

代码实践

代码框架:

https://github.com/X-PLUG/Multi-LLM-Agent

魔搭社区开源模型:

魔搭社区开源数据:https://modelscope.cn/datasets/iic/toolbench_for_alpha_umi

一阶段全局微调

cd ./GLPFT
LLAMA_PATH="" # your path for initial LLM checkpoint
NNODE=8
PORT=12345
BSZ=6
GA=1
EXP_NAME=/toolbench/backbone  # path to save model
export PYTHONPATH=./
torchrun --nproc_per_node=$NNODE --master_port=$PORT train_mem.py \
    --model_name_or_path $LLAMA_PATH  \
    --data_path dataset/toolbench/train/train_backbone.json\
    --output_dir saved_models/$EXP_NAME \
    --num_train_epochs 2 \
    --per_device_train_batch_size $BSZ \
    --per_device_eval_batch_size $BSZ \
    --gradient_accumulation_steps $GA \
    --evaluation_strategy "no" \
    --eval_steps 0 \
    --save_strategy "steps" \
    --save_steps 500 \
    --save_total_limit 8 \
    --learning_rate 5e-5 \
    --warmup_ratio 0.4 \
    --lr_scheduler_type "cosine" \
    --gradient_checkpointing True \
    --deepspeed ds_configs/stage3-a100.json \
    --bf16 \
    --logging_steps 2 \
    --model_max_length 4096 \
    --report_to none \
    --lazy_preprocess True

二阶段局部微调

cd ./GLPFT
NNODE=8
PORT=12345
BSZ=6
GA=1
BB_PATH="saved_models/toolbench/backbone"
EXP_NAME=/toolbench/planner
export PYTHONPATH=./
torchrun --nproc_per_node=$NNODE --master_port=$PORT train_mem.py \
    --model_name_or_path $BB_PATH  \
    --data_path dataset/toolbench/train/train_planner.json \
    --output_dir saved_models/$EXP_NAME \
    --num_train_epochs 1 \
    --per_device_train_batch_size $BSZ \
    --per_device_eval_batch_size $BSZ \
    --gradient_accumulation_steps $GA \
    --evaluation_strategy "no" \
    --eval_steps 0 \
    --save_strategy "steps" \
    --save_steps 500 \
    --save_total_limit 8 \
    --learning_rate 1e-5 \
    --weight_decay 0.01 \
    --warmup_ratio 0.2 \
    --lr_scheduler_type "cosine" \
    --gradient_checkpointing True \
    --bf16 \
    --logging_steps 2 \
    --model_max_length 4096 \
    --report_to none \
    --lazy_preprocess True
EXP_NAME=/toolbench/caller
export PYTHONPATH=./
torchrun --nproc_per_node=$NNODE --master_port=$PORT train_mem.py \
    --model_name_or_path $BB_PATH  \
    --data_path dataset/toolbench/train/train_caller.json \
    --output_dir saved_models/$EXP_NAME \
    --num_train_epochs 1 \
    --per_device_train_batch_size $BSZ \
    --per_device_eval_batch_size $BSZ \
    --gradient_accumulation_steps $GA \
    --evaluation_strategy "no" \
    --eval_steps 0 \
    --save_strategy "steps" \
    --save_steps 500 \
    --save_total_limit 8 \
    --learning_rate 1e-5 \
    --weight_decay 0.01 \
    --warmup_ratio 0.2 \
    --lr_scheduler_type "cosine" \
    --gradient_checkpointing True \
    --bf16 \
    --logging_steps 2 \
    --model_max_length 4096 \
    --report_to none \
    --lazy_preprocess True
EXP_NAME=/toolbench/summarizer
export PYTHONPATH=./
torchrun --nproc_per_node=$NNODE --master_port=$PORT train_mem.py \
    --model_name_or_path $BB_PATH  \
    --data_path dataset/toolbench/train/train_summarizer.json \
    --output_dir saved_models/$EXP_NAME \
    --num_train_epochs 2 \
    --per_device_train_batch_size $BSZ \
    --per_device_eval_batch_size $BSZ \
    --gradient_accumulation_steps $GA \
    --evaluation_strategy "no" \
    --eval_steps 0 \
    --save_strategy "steps" \
    --save_steps 500 \
    --save_total_limit 8 \
    --learning_rate 1e-5 \
    --weight_decay 0.01 \
    --warmup_ratio 0.4 \
    --lr_scheduler_type "cosine" \
    --gradient_checkpointing True \
    --bf16 \
    --logging_steps 2 \
    --model_max_length 4096 \
    --report_to none \
    --lazy_preprocess True


点击链接👇,直达开源地址

https://github.com/X-PLUG/Multi-LLM-Agent?from=alizishequ__text

相关文章
|
21天前
|
人工智能 运维 自然语言处理
对话蚂蚁开源蒋炜:让 Agent 把运维人员从 24 小时的待命中解放出来
当整个行业的智慧都集中在一件事情上时,比起闭门造车,开源一定能带来更好的技术迭代和发展。CodeFuse 「编码挑战季」活动火热进行中,诚邀广大开发者们参与编码挑战
92 3
对话蚂蚁开源蒋炜:让 Agent 把运维人员从 24 小时的待命中解放出来
|
4月前
|
人工智能 自然语言处理 搜索推荐
微软开源基于ChatGPT的,超级文本代码智能体
【7月更文挑战第17天】微软的TaskWeaver是开源的LLM框架,聚焦领域特定数据分析与个性化需求。它以代码优先,将用户请求转为可执行代码,增强处理复杂任务的效率和准确性。通过用户定义插件实现定制,适应多种场景。然而,转化请求可能引入复杂性和错误,非技术用户使用插件有难度,且开源带来的安全与隐私问题需关注。[论文链接](https://arxiv.org/abs/2311.17541)**
63 4
|
7天前
|
数据采集 人工智能 自然语言处理
万字干货|复杂表格多Agent方案:从LLM洞察、系统性 思考到实践经验总结
笔者结合实践经验以近期在负责的复杂表格智能问答为切入点,结合大模型的哲学三问(“是谁、从哪里来、到哪里去”),穿插阐述自己对大模型的一些理解与判断,以及面向公共云LLM的建设模式思考,并分享软件设计+模型算法结合的一些研发实践经验。
|
8天前
|
Prometheus 监控 Java
深入探索:自制Agent监控API接口耗时实践
在微服务架构中,监控API接口的调用耗时对于性能优化至关重要。通过监控接口耗时,我们可以识别性能瓶颈,优化服务响应速度。本文将分享如何自己动手实现一个Agent来统计API接口的调用耗时,提供一种实用的技术解决方案。
17 3
|
6月前
|
物联网 测试技术 API
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
|
1月前
|
人工智能 JSON 自然语言处理
开源模型+Orchestrating Agents多智能体框架,易用、强大且可控
本文采用开源Qwen2.5-14B-instruct-GGUF来体验多智能体编排和交接,希望在体验多智能体编排和交接框架的同时,一起评估中小参数规模的模型(14B)能否较好的完成多智能体任务。
|
3月前
|
人工智能 自然语言处理 算法
可自主进化的Agent?首个端到端智能体符号化训练框架开源了
【8月更文挑战第13天】近年来,AI领域在构建能自主完成复杂任务的智能体方面取得重大突破。这些智能体通常基于大型语言模型,可通过学习适应环境。为简化设计流程,AIWaves Inc.提出智能体符号化学习框架,使智能体能在数据中心模式下自我优化,以推进通向通用人工智能的道路。该框架将智能体视作符号网络,利用提示、工具及其组合方式定义可学习的权重,并采用自然语言模拟反向传播和梯度下降等学习过程,指导智能体的自我改进。实验显示,此框架能有效促进智能体的自主进化。尽管如此,该框架仍面临高质量提示设计及计算资源需求高等挑战。论文详情参见:https://arxiv.org/pdf/2406.18532。
177 58
|
5月前
|
人工智能 决策智能 iOS开发
新Siri解锁万能Agent?魔搭开源移动端框架Mobile-Agent-v2抢先体验!
在刚结束的苹果全球开发者大会WWAC上,Apple家族AI全家桶 「Apple Intelligence」亮相,库克宣布个人智能系统将应用于新版本的 iPhone、iPad 和 Mac 操作系统。
|
2月前
|
人工智能 JSON 自然语言处理
你的Agent稳定吗?——基于大模型的AI工程实践思考
本文总结了作者在盒马智能客服的落地场景下的一些思考,从工程的角度阐述对Agent应用重要的稳定性因素和一些解法。
138 12
|
3月前
|
存储 弹性计算 前端开发
阿里云服务领域Agent智能体:从概念到落地的思考、设计与实践
本文讲述了作者团队在阿里云的服务领域Agent是如何设计与实践的,以及到目前为止的一些阶段性成果,作者做出了总结和整理。