人工智能测试开发系列教程L2 | 大语言模型提示词工程 - 大模型与AIGC应用体系

简介: 提示词是发挥大语言模型潜力的关键。看似简单,实则需掌握技巧:明确需求、拆解任务、提供参考、角色扮演、系统测试。善用提示词,才能让AI如孙悟空驾驭金箍棒般得心应手,尤其对开发者而言,掌握prompt是构建AI应用的必备技能。

b3664086-6eac-4f9f-8ab1-09b003039db9.png

可能很多同学疑惑的点在于,提示词还需要另外去学吗?这个看起来貌似有手就行的操作,只要会打字就能够立刻上手吧?

但是会和用的好是两回事。我们可以把ChatGPT想象成孙悟空的金箍棒,本身它是一个非常强大的法器,但是如果不会使用,它也不过是一根铁棍而已。提示词用得越好,ChatGPT就越强大。

而且对于有编程基础的人来说,后续如果想要基于 LLM 或大语言模型快速构建、开发一些应用软件或者功能。不掌握 prompt 的基本原理和使用技巧,是无法达到很好的效果的。

在最后的相关资料里面,也添加了由微软和OpenAI所出的,针对于开发者的提示词的教程。我们的课程同样在后面也会带来基于 prompt 的应用开发实践。

提示词的原则与技巧
而写一个好的提示词,有以下的技巧可以使用。

写清楚需求:GPT 模型无法读懂您的想法,因此在提供需求时尽可能具体是很重要的。这包括在您的查询中包含详细信息,要求模型采用角色,以及使用定界符清楚地指示输入的不同部分。

提供参考文本:如果可以,请提供与您希望模型生成的内容相似的参考文本。这将有助于模型了解您要查找的内容并生成更准确的结果。

将复杂的任务拆分为更简单的子任务:如果您试图让模型做一些复杂的事情,将任务分解为更小、更易于管理的子任务会很有帮助。这将使模型更容易理解您的要求并生成更准确的结果。

角色扮演:这个技巧的作用是告诉ChatGPT在对话中扮演一个特定的角色或人物。这对于创造更有吸引力和沉浸感的对话,或模拟真实世界的场景特别有用。

系统地测试变化: 对需求或参考文本进行更改时,重要的是系统地测试结果以了解它们如何影响模型的输出。这将帮助您确定对改进结果最有效的更改。

写清楚需求
编写有效的ChatGPT的难点之一是表达含糊不清。为了避免这个问题,有以下几个问题需要注意:

定义任何专业术语或技术术语。
避免使用模棱两可的语言。
使用清晰或简明的语言
错误的案例:"你是我的哈基米吗?"
哈基米属于网络用语,而且诞生在2023年,ChatGPT是无法理解这个词的语意的。

好的案例:"请帮我提供在深圳市宝安区所有的咖啡馆"
简明扼要说清楚自己的需求,无需多言,ChatGPT便很好理解了。

提供参考文本
对于文本比较短的引用,可以直接贴到提问里面即可: 如果你有一段法律条款,并希望模型使用这段条款来解释某个概念,你可以这样提问:“根据以下的法律条款,什么是知识产权?”然后附上法律条款的内容。
网页链接的引用: 也可以直接将网页链接里面的内容提供给 GPT 来作为引用文本。比如可以直接给它一个链接地址,让它总结文章内的内容。(注意这个功能需要使用web插件)
拆解复杂任务
作为一个厨师,在做饭的时候需要完成这些步骤:准备食材、清理食材、处理食材、开始烹饪、摆盘。

在这个过程中,其实厨师就是把一个复杂的任务,拆解成了多个简单的任务。其实在编程的过程中,也是同样的道理。也会把一个复杂需求,拆解为N个简单的子需求。

如果需要ChatGPT帮助我们完成一个复杂的任务,那么,我们需要预先帮它把任务拆分。这样做的优点是:

更好理解每一个操作步骤。
不被上下文限制影响。
方便调整。
例如我们提出了一个如下的复杂任务:

提示词:作为一个测试工程师,我即将进行述职答辩,我想编写一个述职报告,述职报告需要包含我今年的成绩、我明年的目标、以及我在今年的工作过程中碰到的问题
ChatGPT 虽然给到了相应的回复,但是还有问题:

工作成绩没有清晰的数据也没有说服力,看着比较干瘪。报告内容没有图表。
内容太过简单空洞。
格式不够优雅。
如果我们把提问的方式做进一步优化,把这个复杂问题一步步进行拆解,并给ChatGPT一定的修改反馈,则产生的内容会更加符合我们的需求,比如我们可以把问题分解为:

提示词:作为一个测试工程师,我即将进行述职答辩,我想编写一个述职报告。述职报告需要包含我今年的成绩,我今年带领测试团队将bug的逃逸率降低了10%的比例。并且我希望有一个通过echarts绘制的折线图。请将我的述职报告做进一步优化。

f0ccc5a4-0050-4852-b0f3-437e72384fcb.png

当然我们从这张图片中可以看出折线图无法展示,我们可以进一步给GPT提示信息,让它直接给到报表的源码。

提示词: echarts 折线图没有展示出来

94ac7b21-f600-46eb-8806-c2955f5f654e.png

然后GPT就会解释原因,并且给到解决方案。由此可见,将问题拆解,我们可以随时调整GPT的返回信息,让其更加贴近我们的需求。

借助外部工具
作为一个大语言生成模型,GPT4 并不擅长各种数学计算。比如下面的问题(来自官方 GPT 最佳指南中的示例问题):

提示词:查找以下多项式的所有实值根:3x^5 - 5x^4 - 3x^3 - 7x - 10
如果直接提问的话,通常没法直接给出答案,如下图所示,虽然借助Python,给出了运算过程,但是其实ChatGPT无法像人类数学家一样,给出直接的推导过程:

ab11105b-725e-4292-85d9-db0d055f4788.png

所以可以将提示词改为:

提示词:查找以下多项式的所有实值根:3x^5 - 5x^4 - 3x^3 - 7x - 10 ,使用Python 实现。
在后续碰到ChatGPT无法直接解决的问题时,不妨继续尝试这种曲线救国的方式。

角色扮演
角色扮演的过程就更为简单了,我们在编写提示词的时候,只需要给它加上一些角色的设定。

比如这个例子:

提示词:请用鲁迅的口吻,写一篇文章,叫做我的妈妈,要求字数在800字以内。
除了扮演其他作家之外,ChatGPT甚至可以扮演领导,面试官,浏览器的console插件等各种各样我们可以想象到的角色:

提示词:我希望你作为一个 javascript 控制台。我将输入命令,你回复javascript 控制台应显示的内容。我希望您只在一个唯一的代码块内回复终端输出,而不是其他任何内容。不要写解释。我的第一个命令是 console.log("Hello World");

8232daf9-f1bc-4f79-8d35-6c535c441cf1.png

系统的测试变化
正如人在回复信息的时候,也无法保证所有的回复都是正确的,ChatGPT 也无法保证每次给到的信息都是“靠谱的”或者是满足需求的。

所以ChatGPT的每一次回复,在确认没有问题之后,再使用。如果有问题的话,可以进一步进行提问,ChatGPT会根据提示词不停的纠正回复。以达到一个满意的效果。

e8085d3b-9b68-4213-ad5a-8bebc92253d3.png

比如这个示例:

提示词:请问 App 的产品在测试的过程中需要注意什么
在测试一个 App 产品的过程中,有一些重要的注意事项可以帮助确保产品质量和用户体验。以下是一些你应该注意的方面:

  1. 功能性测试: 确保所有的功能都能正常工作,包括用户界面、交互和后台操作。测试每个功能的不同用例和场景,以确保没有错误或异常情况。

  2. 兼容性测试: 测试 App 在不同设备、操作系统版本和屏幕尺寸上的兼容性。这有助于确保用户在各种环境中都能正常使用 App。

  3. 性能测试: 测试 App 的性能,包括加载速度、响应时间和资源占用等。确保 App 在各种条件下都能保持良好的性能。

...省略...

  1. 更新和升级测试: 在发布新版本或更新时,确保之前的功能仍然正常,没有引入新的问题。

  2. 法律和隐私合规性: 确保 App 遵守相关的法律法规和隐私政策,特别是涉及用户数据和隐私的方面。

总之,测试是确保你的 App 产品质量和用户满意度的关键步骤。细致的测试流程和综合的测试策略可以帮助你尽早发现和解决问题,提供优秀的用户体验。

提示词:请针对兼容性测试再做一些补充。
当进行兼容性测试时,你需要关注不同设备、操作系统版本、浏览器以及屏幕尺寸之间的兼容性。以下是一些针对兼容性测试的补充建议:

  1. 设备兼容性测试: 确保你的 App 在各种不同品牌、型号和操作系统的移动设备上都能正常运行。考虑测试不同的手机和平板设备。

  2. 操作系统版本兼容性测试: 测试 App 在不同操作系统版本上的兼容性,包括最新版本和一些较旧的版本。一些用户可能还在使用较老的操作系统。

...省略...

  1. 更新和升级兼容性测试: 当你发布新版本或更新时,确保之前的功能仍然正常,没有引入新的兼容性问题。

  2. 错误处理和提示信息: 在不兼容的设备或环境下,确保 App 能够提供适当的错误提示,引导用户解决问题。

通过兼容性测试,你可以确保你的 App 在不同的环境中都能够提供一致的用户体验,减少用户因设备或环境不同而遇到的问题,从而提高用户满意度。

通过不停的测试以及纠正 ChatGPT 的回复,即可最终获得一个满意的回复。

在学习 AIGC 的过程中,需要打破的往常的认知,不能再将AI作为简单的程序看待,反而要把它当作一个“人”来看待。

就像和人沟通一样,需要注意措辞、语气、沟通方式,才能够真正做到学会与AI对话,发挥它强大的作用。

后续学习的过程中,还会针对于 prompt 结合一些api的开发进行。

相关文章
|
13天前
|
人工智能 运维 安全
技术深析快手直播安全事件:为什么大量违规直播“关不掉”?
快手直播安全事件暴露了高并发下账号权限、风控与审核系统的系统性失效。对测试开发而言,需从功能验证转向系统性防控,强化极端场景测试、高负载审核链路验证及熔断机制演练,提升对复杂风险的预判与拦截能力。
|
2月前
|
人工智能 JSON 自然语言处理
2025年测试工程师的核心竞争力:会用Dify工作流编排AI测试智能体
测试工程师正从脚本执行迈向质量策略设计。借助Dify等AI工作流平台,可编排“AI测试智能体”,实现用例生成、语义校验、自动报告等全流程自动化,应对AI应用的动态与不确定性,构建智能化、可持续集成的测试新体系。
|
21天前
|
人工智能 前端开发 JavaScript
10分钟上手Cursor:AI编程助手从入门到精通
Cursor并非又一AI噱头,而是真正理解开发者意图的编程伙伴。基于VS Code,秒速上手,通过智能编辑、对话编程、代码诊断等功能,大幅提升效率。三周亲测,工作流彻底革新,编码更轻松,学习也更高效。
|
2月前
|
人工智能 自然语言处理 安全
AI驱动下的天猫测试全流程革新:从人工到智能的实践与落地经验
天猫技术质量团队探索AI在测试全流程的应用,覆盖需求解析到报告归档,实现用例生成、数据构造、执行校验等环节的自动化与智能化。通过自然语言理解、大模型推理和闭环架构,提升测试效率与质量,沉淀知识资产,构建可溯化、可管理的智能测试体系,推动质量保障向敏捷化、智能化演进。
AI驱动下的天猫测试全流程革新:从人工到智能的实践与落地经验
|
1月前
|
缓存 监控 安全
知识图谱和大模型哪个才是大方向?
面对高并发与复杂业务,知识图谱与大模型如何选择?本文从架构、性能与落地场景出发,剖析两者优劣:知识图谱可解释性强但维护成本高,大模型灵活高效却存在幻觉风险。推荐融合策略——以图谱为“锚”保障可靠性,以大模型为“浪”提升灵活性,通过RAG、知识增强等方案实现互补,助力系统设计在速度与稳定间取得平衡。
|
12天前
|
传感器 自然语言处理 前端开发
开源Coze提升测试效率教程
Coze是一款开源智能自动化测试平台,支持自然语言编写用例、自动感知变化、自愈脚本、全栈测试覆盖。它能显著提升测试效率,降低维护成本,助力团队从重复劳动转向高价值探索性测试,重塑现代测试工作方式。
|
2月前
|
Web App开发 人工智能 JavaScript
Playwright MCP项目实战:基于提示的浏览器测试与代码生成
Playwright MCP实现AI驱动的对话式UI测试,只需自然语言指令即可自动执行测试并生成报告,大幅降低自动化门槛,提升效率与脚本稳定性,重塑现代Web测试格局。
|
27天前
|
存储 SQL JSON
打通可观测性的“任督二脉”:实体与关系的终极融合
阿里云推出图查询能力,基于 graph-match、graph-call、Cypher 三重引擎,实现服务依赖、故障影响、权限链路的秒级可视化与自动化分析,让可观测从‘看板时代’迈向‘图谱时代’。
250 44
|
5月前
|
人工智能 缓存 监控
MCP零基础学习(6)|与大型语言模型(LLM)的深度融合
本文是MCP系列教程的进阶篇,重点讲解如何将MCP与各类大语言模型深度集成,覆盖本地模型(Ollama、vLLM)和在线服务(OpenAI、DeepSeek)的接入方法,并详解提示词模板设计与上下文管理技巧。通过具体代码示例和架构解析,帮助开发者构建灵活、高效的AI应用系统,实现更智能的模型调度与资源利用。
|
安全 Linux iOS开发
Anaconda下载及安装保姆级教程(详细图文)
Anaconda下载及安装保姆级教程(详细图文)
35368 1
Anaconda下载及安装保姆级教程(详细图文)

热门文章

最新文章