Minstrel自动生成结构化提示,让AI为AI写提示词的多代理提示生成框架

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: 在人工智能迅速发展的背景下,有效利用大型语言模型(LLMs)成为重要议题。9月发布的这篇论文提出了LangGPT结构化提示框架和Minstrel多代理提示生成系统,旨在帮助非AI专家更好地使用LLMs。LangGPT通过模块化设计提高提示的泛化能力和可重用性,Minstrel则通过多代理协作自动生成高质量提示。实验结果显示,这两种方法显著提升了LLMs的性能,特别是在大规模模型上效果显著。

在人工智能快速发展的今天,如何有效利用大型语言模型(LLMs)成为了一个普遍关注的话题。这是9月份的一篇论文,提出了LangGPT结构化提示框架和Minstrel多代理提示生成系统,为非AI专家使用LLMs提供了强大支持。

对于非人工智能专家来说,构建高质量的提示以充分利用LLMs的能力仍然是一个巨大的挑战。现有的提示工程研究主要集中在总结设计技巧和设计自动优化方法上,但这些方法往往缺乏系统性的设计,导致学习成本高昂,且不利于提示的迭代更新。

为了解决这些问题,论文的作者提出了LangGPT,一个结构化的提示设计框架,以及Minstrel,一个基于多代理协作的结构化提示生成工具。研究的主要目的包括:

  1. 提高提示的泛化能力和可重用性,降低提示设计的学习成本。
  2. 通过多代理协作自动生成高质量的结构化提示。
  3. 验证结构化提示在指导LLMs执行任务时的优越性。

LangGPT: 结构化提示设计框架

整体双层结构

LangGPT借鉴了面向对象编程语言的设计思想,提出了一个双层结构的提示设计框架:

  1. 模块(Modules):类似于编程语言中的类,每个模块代表对LLMs的一个方面的要求。
  2. 元素(Elements):类似于编程语言中的函数和属性,代表对LLMs的直接具体指令的内容。

模块设计

LangGPT定义了以下基本模块:

  • 角色(Role):提示的名称和为LLMs设置的角色。
  • 配置文件(Profile):包含提示的基本信息,如作者、版本、描述、语言等。
  • 约束(Constraints):LLMs在生成响应时不能违反的禁令和必须满足的要求。
  • 目标(Goals):用户想要达到的最终目标。
  • 初始化(Initialization):通知LLMs开始对话的标志。
  • 示例(Examples):给LLMs提供输入-输出对作为学习实例。
  • 工作流程(Workflow):指导LLMs执行任务的过程。
  • 技能(Skills):激活LLMs与任务相关的知识和能力。
  • 建议(Suggestion):为LLMs在执行任务时遇到的分支情况提供建议和行为规划。
  • 背景(Background):LLMs执行任务时必须具备的上下文信息和记忆。
  • 风格(Style):规定LLMs响应的风格、语气和情感特征。
  • 输出格式(Output format):指定LLMs响应的格式。
  • 命令(Command):防止基于LLMs的助手局限于单一行为。

元素设计

LangGPT设计了三种基本元素类型:

  1. 模拟赋值的模板:The ⟨PROPERTY⟩ is ⟨VALUE⟩.
  2. 指定输入信息、任务和输出的模板(输入和输出可选)
  3. 模拟函数的形式:For the given ⟨PROPERTY⟩ of ⟨VALUE⟩, please execute the following actions: ⟨ACTIONS⟩; Return the ⟨RESULT⟩

论文中提供了一个示例表格,展示了不同模块中基本元素的示例:

Minstrel: 基于多代理协调的结构化提示生成

Minstrel是一个通过多个生成代理协作来生成结构化提示的工具。它引入了工作组的概念,将提示生成任务分解为低耦合且灵活的子任务。

工作组设计

Minstrel包含三个主要的工作组:

  1. 分析组(Analysis Group,A):负责分析用户需求、反馈和测试结果。
  2. 设计组(Design Group,D):负责生成不同模块的主要内容。
  3. 测试组(Test Group,T):对生成的结构化提示进行系统测试。

论文中提供了一个图表,展示了Minstrel的整体框架:

代理设计

每个工作组中包含不同的代理:

  • 分析组(A):- 分析器A(m):分析用户的任务需求并激活相应的模块设计代理。- 反思器A(r):总结测试反馈和用户反馈,并将其反馈给相应的模块设计代理。
  • 设计组(D):- 包含多个对应LangGPT模块的专门代理,如D(cons.)负责生成约束内容,D(bkgd.)负责生成背景内容等。
  • 测试组(T):- 模拟器T(s):按照生成的提示充当助手。- 提问者T(q):与模拟器进行对话,产生测试对话。- 评论员T(c):评估助手的表现,并能相互辩论。

多代理协作与反思机制

Minstrel的工作流程包括设计和反思两个主要阶段:

  1. 设计阶段:Sa = Am(t), M[k] = D(k)(t) for k in Sa,其中Sa表示模块激活状态,M表示存储生成的LangGPT模块内容的列表。
  2. 反思阶段:Ct = T(c)(T(s)(∑M), T(q)(t)), Sr = A(r)(Ct + Cu), M[k] = M[k] + Am(Sr),其中Ct表示测试组得出的评论,Cu表示用户的评论,Sr表示基于评论生成的模块激活状态。

通过这种设计,Minstrel能够不断优化生成的提示,以更好地满足用户需求和任务要求。

实验设置

为了验证LangGPT和Minstrel的有效性,论文作者进行了一系列实验。以下是实验设置的主要内容:

大型语言模型选择

  • Minstrel使用的模型:GPT-4-turbo
  • 用于评估提示效果的模型:- Gemma-2-9b-it- Qwen2-7B-Instruct- Meta-Llama-3.1-8B-Instruct- Mistral-7B-Instruct-v0.2- GPT-4o-mini- Claude3-haiku

评估任务

为了全面评估提示的质量,作者选择了以下任务:

  1. EQ-Bench:情感智能基准测试
  2. GPQA:研究生级别的问答任务
  3. GSM8k:数学问题求解
  4. IFEval:指令遵循评估
  5. TruthfulQA:真实性问答任务

这些任务涵盖了LLMs常用的多个领域,包括专业知识问答、数学问题、指令遵循和虚假信息检测。

基线方法

作者设计了基于COSTAR和CRISPE原则的基线提示,用于与LangGPT和Minstrel生成的结构化提示进行比较。

主要结果和分析

LLMs性能比较

论文中提供了一个详细的表格,展示了不同提示方法对各种LLMs在不同任务上的性能影响:

从这个表格中可以观察到以下主要结果:

  1. LangGPT提示(无论是手动编写还是由Minstrel生成)在大多数情况下都能显著提升LLMs的性能。
  2. Minstrel自动生成的提示在某些任务上甚至超过了人类专家手动编写的LangGPT提示。
  3. 不同模型和任务对提示的敏感度有所不同,特别是在困难的GPQA任务上表现明显。

模型规模对提示效果的影响

为了进一步研究模型规模对提示效果的影响,作者邀请普通用户为不同规模的Qwen1.5模型设计提示,并在Open LLM Leaderboard的任务上进行测试。结果如下图所示:

这些结果揭示了以下insights:

  1. LangGPT提示对较大规模的模型有更显著的性能提升。
  2. 对于较小规模的模型(如0.5B参数的Qwen),结构化提示可能反而会降低性能。
  3. 在某些任务上(如ARC-Challenge和MMLU),LangGPT提示的效果特别明显。

易用性评估

为了评估LangGPT和Minstrel的易用性,作者在其在线社区中进行了用户调查。主要结果包括:

  1. 89.66%的用户给出了3分或更高的评分(5分制),表明用户认可LangGPT的易用性。
  2. LangGPT的整体满意度得分为8.55分(满分10分)。

这些结果证明了LangGPT框架对非AI专家也具有很好的可用性。

案例研究

为了直观地展示结构化提示的效果,论文作者提供了一个具体案例。他们指导LLMs扮演一个奉承者的角色,分别使用LangGPT提示、CRISPE提示和仅指令提示。结果如下图所示:

这个案例研究揭示了以下几点:

  1. 使用仅指令提示和CRISPE提示的ChatGPT没有明确的角色特征,回应主要是对用户输入的简单重复。
  2. 使用LangGPT提示的ChatGPT表现出更丰富的角色特征,能够从多个角度表达赞美,展现出更高的语言能力和创造性。

总结

通过这些实验和分析,论文作者得出以下主要结论:

  1. LangGPT作为一个结构化的提示设计框架,具有良好的系统性和可重用性,易于学习和使用。
  2. Minstrel能够通过多代理协作自动生成高质量的结构化提示,在某些情况下甚至超过人类专家的表现。
  3. 结构化提示(无论是Minstrel生成还是手动编写)在指导LLMs执行任务时表现更好,特别是对于较大规模的模型。

然而,研究也发现了一些局限性,特别是结构化提示对低性能LLMs的适应性较差。因此作者提出了未来的研究方向:

  1. 进一步优化提示设计,特别是针对低性能LLMs的优化。
  2. 探索如何更好地平衡提示的复杂性和模型的能力,以适应不同规模和能力的LLMs。
  3. 研究如何自动调整提示的复杂度,以适应不同的任务和模型组合。

总的来说,这项研究为提示工程领域提供了新的思路和工具,有望推动大型语言模型在更广泛的应用场景中的有效使用。

论文链接:

https://avoid.overfit.cn/post/8645e12d18e84e26a54d603d9ce388400

目录
相关文章
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
DiffSensei:AI 漫画生成框架,能生成内容可控的黑白漫画面板,支持多角色和布局控制
DiffSensei 是一个由北京大学、上海AI实验室及南洋理工大学共同推出的AI漫画生成框架,能够生成可控的黑白漫画面板。该框架整合了基于扩散的图像生成器和多模态大型语言模型(MLLM),支持多角色控制和精确布局控制,适用于漫画创作、个性化内容生成等多个领域。
60 17
DiffSensei:AI 漫画生成框架,能生成内容可控的黑白漫画面板,支持多角色和布局控制
|
3天前
|
机器学习/深度学习 人工智能
Leffa:Meta AI 开源精确控制人物外观和姿势的图像生成框架,在生成穿着的同时保持人物特征
Leffa 是 Meta 开源的图像生成框架,通过引入流场学习在注意力机制中精确控制人物的外观和姿势。该框架不增加额外参数和推理成本,适用于多种扩散模型,展现了良好的模型无关性和泛化能力。
35 11
Leffa:Meta AI 开源精确控制人物外观和姿势的图像生成框架,在生成穿着的同时保持人物特征
|
8天前
|
人工智能 API 语音技术
TEN Agent:开源的实时多模态 AI 代理框架,支持语音、文本和图像的实时通信交互
TEN Agent 是一个开源的实时多模态 AI 代理框架,集成了 OpenAI Realtime API 和 RTC 技术,支持语音、文本和图像的多模态交互,具备实时通信、模块化设计和多语言支持等功能,适用于智能客服、实时语音助手等多种场景。
87 15
TEN Agent:开源的实时多模态 AI 代理框架,支持语音、文本和图像的实时通信交互
|
9天前
|
人工智能 安全 PyTorch
SPDL:Meta AI 推出的开源高性能AI模型数据加载解决方案,兼容主流 AI 框架 PyTorch
SPDL是Meta AI推出的开源高性能AI模型数据加载解决方案,基于多线程技术和异步事件循环,提供高吞吐量、低资源占用的数据加载功能,支持分布式系统和主流AI框架PyTorch。
43 10
SPDL:Meta AI 推出的开源高性能AI模型数据加载解决方案,兼容主流 AI 框架 PyTorch
|
9天前
|
人工智能 自然语言处理 前端开发
Director:构建视频智能体的 AI 框架,用自然语言执行搜索、编辑、合成和生成等复杂视频任务
Director 是一个构建视频智能体的 AI 框架,用户可以通过自然语言命令执行复杂的视频任务,如搜索、编辑、合成和生成视频内容。该框架基于 VideoDB 的“视频即数据”基础设施,集成了多个预构建的视频代理和 AI API,支持高度定制化,适用于开发者和创作者。
68 9
Director:构建视频智能体的 AI 框架,用自然语言执行搜索、编辑、合成和生成等复杂视频任务
|
11天前
|
机器学习/深度学习 人工智能
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
53 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
|
12天前
|
机器学习/深度学习 人工智能 算法
【AI系统】框架编程范式
编程范式是软件工程中一类典型的编程风格,如函数式、命令式、声明式、面向对象等。它们影响着开发者对程序执行的理解。本文探讨了两种主要的编程范式——声明式编程与命令式编程,特别是在AI框架中的应用,如TensorFlow的声明式编程和PyTorch的命令式编程,分析了这两种范式对AI框架架构设计的影响及主流AI框架在这两种范式上的差异。
44 3
【AI系统】框架编程范式
|
3天前
|
机器学习/深度学习 人工智能 算法
AI框架的赢者法则:生态繁荣的昇思MindSpore,成为大模型时代的新选择
2024年被视为大模型应用的元年。昇思MindSpore AI框架凭借其强大的开源社区和技术创新,在全球范围内迅速崛起。截至2024年11月,该框架的下载量已超过1100万次,覆盖130多个国家和地区的2400多个城市,拥有3.7万名贡献者。昇思MindSpore不仅在人才培养和社区治理方面表现出色,还在大模型的开发、训练和应用中发挥了关键作用,支持了50多个主流大模型,覆盖15个行业。随着其市场份额预计达到30%,昇思MindSpore正逐步成为行业共识,推动大模型在各领域的广泛应用。
31 12
|
2天前
|
人工智能 计算机视觉
幻觉不一定有害,新框架用AI的幻觉优化图像分割技术
在图像分割领域,传统方法依赖大量手动标注数据,效率低下且难以适应复杂场景。为解决这一问题,研究人员提出了“任务通用可提示分割”方法,利用多模态大型语言模型(MLLM)生成实例特定提示。然而,MLLM常出现幻觉,影响分割精度。为此,研究团队开发了“Prompt-Mask Cycle”(ProMaC)框架,通过迭代生成和验证提示及掩码,有效利用幻觉信息,提高了分割精度和效率。实验结果表明,ProMaC在多个基准数据集上表现出色,为图像分割技术的发展提供了新思路。
13 6
|
1天前
|
机器学习/深度学习 人工智能 算法
【AI系统】AI 框架之争
本文介绍了AI框架在数学上对自动微分的表达和处理,以及其在多线程算子加速、GPU/NPU支持、代码编译优化等方面的技术挑战。文章详细梳理了AI框架的发展历程,从萌芽阶段到深化阶段,探讨了不同阶段的关键技术和代表性框架。同时,文章展望了AI框架的未来趋势,包括全场景支持、易用性提升、大规模分布式支持和科学计算融合。
19 0
下一篇
DataWorks