AI大模型进阶系列(03) prompt 工程指南 | 实战核心技术有哪些?

本文涉及的产品
多模态交互后付费免费试用,全链路、全Agent
简介: 本文深入讲解了AI大模型中的prompt工程。文章分析了role角色(system、user、assistant)的意义,message多轮会话记忆机制,以及prompt的核心三要素(上下文背景、输入内容、输出指示)。同时介绍了多种提示优化技术,如少样本提示、CoT链式思考、prompt chaining链式提示、思维树ToT提示等,还展示了让AI生成提示词的方法,为实际应用提供了全面指导。

美国对全球贸易加征关税这件史诗级大事,对社会经济领域产生巨大影响,舆情的节奏也在加速震荡。一夜醒来,川建国给自己搞了个台阶,继续搞变脸戏法、实行延期大法,给软蛋们90天期限继续求他。而春江水暖鸭先知,这波震荡影响何时触底,静待相关靴子落地,仍需要一段时间。不管影响几何,闹剧何时休,本次全球经济增速减缓,大家最为看好最有潜力的增长引擎,还得是AI应用进步发展。


一、前言背景

二、message role 类型意义

2.1 role角色

2.2 message实现多轮会话记忆

2.3 prompt的核心三要素

三、prompt 提示优化技术

3.1 少样本提示

3.2 CoT(chain-of-thought) 链式思考提示

3.3  prompt chaining 链式提示-LLM的秘密

3.4 思维树ToT提示

3.5 其他prompt工程技术

四、巨人肩膀-让AI大模型生成提示词


一、前言背景

    随着大模型推理能力不断增强,日常普通的应用,普通输入就可以得到较好的响应。然而在商业应用实践,对结果的确定性、专业性、稳定性等方面有极高的要求,极致的AI体验将是研发目标。

    因此,研发人员在AI大模型应用实践过程中,无法避开高阶的prompt engineering。prompt涉及的内容非常多,模型参数、prompt的设计、样本提示、RAG、工具引用、响应要求、合规伦理要求等都需要考虑。今天我们尽可能整理分享实践过程中非常核心且实用的要点供大家参考。

二、message role 类型意义

    在系列1 prompt部分,已经介绍过模型参数temperature、top_p、响应最大token数max length、频率惩罚frequency penalty参数、惩罚Presence Penalty等参数。

    模型参数配置完成后,开始向大模型输入内容。每条内容由role+content组成。比如通过deepseek api,让大模型生成一个五子棋游戏的demo传参:

2.1 role角色

     role角色它有三个可选值:

system:表示系统指令,通常用来传达开发者定义好的核心指令,用于当前会话,比如让大模型扮演角色的要求定义,以及控制会话行为、风格、任务,让大模型输出具有稳定性和适应特定任务的案例。但通常为非必须,此外也考虑避免注入指令攻击,影响大模型稳定性。

user: 表示用户输入的内容,通常直接作为用户消息的prompt。目前我们所输入的prompt 内容,都是在这个role=user的content内容里。在不应用system role情况下,在特定垂直领域场景通常在prompt锲入指定角色定义,帮助大模型识别任务角色定义。比如在prompt里开头(也就是用户输入内容之前)增加一段【你是一名xx人员,客户回答xx问题,采用xx风格,提供xxx信息】,然后再拼接用户输入内容,提交到大模型提问。此外,还可以在这里增加其他上下文信息,以及响应输出的要求。

assistant:是大模型回答返回的内容。

    比如这个demo,大模型返回:

2.2 message实现多轮会话记忆

     大模型会话请求调用是没有状态的,比如当前会话,最开头你告诉大模型你的名字,经过多次对话后,大模型依然记得你的名字,是因为背后的请求默认将messages上下文拼接发送给大模型。比如deepseek的多轮会话demo:

      第二次提问最终提交给deepseek api的message就是:

2.3 prompt的核心三要素

       面对较为复杂的任务场景,完整的提示词通常包括上下文背景、输入的内容、输出的指示。

上下文背景:通过介绍任务背景、相关上下文、样本案例信息,帮助大模型更专注处理响应任务。上下文越具体,数据和任务越相关,模型响应效果越好。

输入的内容:一般特指用户输入的原文内容。

输出指示:对大模型响应内容的要求、格式、字数限制等。

      围绕这三要素,出现很多prompt优化技术,但更多的是在上下文背景上进行深入探索实践,并为最近输出结果质量提高保障。

三、prompt 提示优化技术

      目前经过大量数据训练的LLM能够很好执行用户简单直接的prompt输入,当零样本提示效果不理想,我们可以通过给与少样本提示、或者RAG搜索增强、利用其他系统服务来给与足够上下文信息,获得理想AI效果。

3.1 少样本提示

      少样本提示,就是在真正提问之前,提供一段示例样本,供大模型推理参考。比如:

3.2 CoT(chain-of-thought)链式思考提示

      由于之前低版本的大模型推理能力相对较弱,面对一下复杂的算术、符号、常识的推理,即使提供少量样本提示,响应并不可靠和稳定。这时候可以提供CoT 链式思考,让大模型学习正确的思维链去处理解决特定任务。

      链式思考提示,实际就是在少样本提示内容里,增加人类思考或者解决方案内容过程。

      比如算术推理题,在prompt里给了思考推理模板,最终大模型也参考改思维链去推理,得到正确答案:

而对于普通的算术推理,目前的deepseek可以自行思考,最终给出正确的推理答案。

      链式思考提示,里面又有零样本CoT提示、自动思维链Auto-CoT提示。

零样本的CoT,简洁到不提供思考样本,只在问题末尾新增一句话:【xxx,让我们逐步思考 or 请一步一步地思考,or let us think step by step】。

自动思维链,面对复杂任务的时候,会先将问题分类,然后选择具有代表性的问题,通过使用零样本CoT提示,去生成推理链。

3.3  prompt chaining 链式提示-LLM的秘密

     在一些复杂任务场景,比如文档总结、摘要提取、文章引用等任务,我们要求知道大模型结果响应的依据,prompt chaining就是一个很实用的技术。

     链式提示核心主要分两步,第一步分解任务,第二步根据子任务去构建最终的提示prompt。

     比如知识库AI,基于已有的文档或者私域数据进行回答问题。prompt的设计,就可以分两步:

1、【你是一个百科全书助手,你的任务是根据知识库回到问题。第一步从知识库里提取与问题相关的知识作为引文,请用'括起来引文列表。】

2、根据第一步得到的引用列表(xx具体引文列表),和原始知识库,对用户xx输入问题进行回答,请xx..

     链式提示背后实现,就好比大模型的思考的秘籍,可以减少幻觉,提高结果的可解释性。这个链式提示,和现在的RAG实现思路有异曲同工之妙。

3.4 思维树ToT提示

     对于需要深度探索、预测分析、推理计算设计的复杂任务,传统提示技巧难以得到满意响应。思维树tree of thoughts框架提示,引导AI模型把思维作为解决复杂问题的中间步骤,让大模型可以对自己的推理过程进行评估调整。

     思维树的核心原理,本质是通过多轮对话搜索形式,增强LLM解决问题的能力。而每一轮对话,都进行评估,并向前尝试验证局部解,并抽样得到评估结果,通过多轮探索继续向前或者回溯验证,得到最终结果。

       对于ToT提示法,hulbert将ToT的框架概括成了一段简短的提示词,可以直接参考指导LLM在推理过程对中间思维进行评估:

【假设三位不同的专家来回答这个问题。

所有专家都写下他们思考这个问题的第一个步骤,然后与大家分享。

然后,所有专家都写下他们思考的下一个步骤并分享。

以此类推,直到所有专家写完他们思考的所有步骤。

只要大家发现有专家的步骤出错了,就让这位专家离开。

请问...】

3.5 其他prompt工程技术

      在AI大模型实践过程中,除了直接在prompt输入进行优化,最终目标都是引导LLM向人类专家智脑一样解决复杂问题。而专家解决问题的方式有非常多种,这也就可以衍生非常多种prompt工程框架。

      比如RAG、function call、React、ART等技术。

四、巨人肩膀-让AI大模型生成提示词

      在AI时代,一切都可以AI。prompt提示工程方法框架众多,如果自己的选择和尝试没有得到理想结果,我们还可以让大模型帮我们生成多个提示词,并从中评估选择最优提示词模板,解决业务问题。

      比如deepseek 提供一个提示词生成demo案例:


推荐阅读拉丁解牛相关专题系列(欢迎交流讨论):

1、JVM进阶调优系列(3)堆内存的对象什么时候被回收?

2、JVM进阶调优系列(2)字节面试:JVM内存区域怎么划分,分别有什么用?

3、JVM进阶调优系列(1)类加载器原理一文讲透

4、JAVA并发编程系列(13)Future、FutureTask异步小王子

5、MySQL进阶突击系列(05)突击MVCC核心原理 | 左右护法ReadView视图和undoLog版本链强强联合

相关文章
|
9天前
|
人工智能 缓存 监控
使用LangChain4j构建Java AI智能体:让大模型学会使用工具
AI智能体是大模型技术的重要演进方向,它使模型能够主动使用工具、与环境交互,以完成复杂任务。本文详细介绍如何在Java应用中,借助LangChain4j框架构建一个具备工具使用能力的AI智能体。我们将创建一个能够进行数学计算和实时信息查询的智能体,涵盖工具定义、智能体组装、记忆管理以及Spring Boot集成等关键步骤,并展示如何通过简单的对话界面与智能体交互。
201 1
|
9天前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
379 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
10天前
|
人工智能 JSON 机器人
超越简单指令:解锁AI潜力的提示工程艺术
超越简单指令:解锁AI潜力的提示工程艺术
169 106
|
12天前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
140 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
10天前
|
设计模式 人工智能 API
AI智能体开发实战:17种核心架构模式详解与Python代码实现
本文系统解析17种智能体架构设计模式,涵盖多智能体协作、思维树、反思优化与工具调用等核心范式,结合LangChain与LangGraph实现代码工作流,并通过真实案例验证效果,助力构建高效AI系统。
145 7
|
11天前
|
机器学习/深度学习 人工智能 数据安全/隐私保护
阿里云 Qwen3 全栈 AI 模型:技术解析、开发者实操指南与 100 万企业落地案例
阿里云发布Qwen3全栈AI体系,推出Qwen3-Max、Qwen3-Next等七大模型,性能全球领先,开源生态超6亿次下载。支持百万级上下文、多模态理解,训练成本降90%,助力企业高效落地AI。覆盖制造、金融、创作等场景,提供无代码与代码级开发工具,共建超级AI云生态。
197 6
|
9天前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
141 10
|
15天前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
222 12

热门文章

最新文章