Prompt基础 | 1-什么是Prompt Engineering

简介: Prompt基础 | 1-什么是Prompt Engineering

Prompt Engineering是随着人工智能兴起的一门工程知识,主要应用于自然语言处理和文本生成领域。是指通过优化的输入文本,来提高模型的输出质量。

在简体中文互联网,现在貌似还没有一个统一的叫法,有的叫『提示工程』,有的叫『Prompt工程』,还有叫『提示语工程』。在本专栏中,统称为『Prompt工程』,把Prompt作为专有名词不作翻译,保证与英文资料一致。

在ChatGPT的学习中,Prompt工程是一个非常重要的模块。好的Prompt,能够最大程度挖掘大语言模式的优势。本小节,我们来了解一下什么是Prompt工程,以及为什么要学习Prompt工程。

Prompt工程是什么

Prompt 工程是创建Prompt、对ChatGPT 这样的语言模型提问,或指导输出的过程。 它允许用户控制模型的输出,生成符合其特定需求的文本。主要应用于自然语言处理和文本生成领域。是指通过优化的输入文本,来提高模型的答案输出质量。

为什么要学习Prompt工程

正如我们前面提到的,ChatGPT对话中使用的Prompt的质量,可以大大影响对话的成功。定义明确的Prompt可以帮助确保对话保持在正轨上,并涵盖用户感兴趣的话题,从而带来更有吸引力和信息量的体验。其中一些关键的好处还包括。

  • 加强理解:通过使用清晰和具体的语言,你可以帮了解手头的话题或任务,并能够产生合适的反馈。这可以引导产生更准确和更相关的反应,这可以使对话更有吸引力和信息量。
  • 加强重点:通过为对话确定一个明确的目的和重点, 并使其保持在正轨上。这可以帮助确保对话涵盖用户感兴趣的话题,并避免切入不相关话题,或分散注意力。
  • 更高的效率:使用简洁明了的Prompt,也可以帮助提高对话的效率,通过专注于特定的话题并避免不必要的切入,你可以确保对话保持在正轨上,并以更及时的方式涵盖所有的关键点。

总的来说,制作清晰简洁的Prompt,可以帮助确保你的ChatGPT对话具有吸引力、信息量大、效率高。在下面的章节中,我们将探讨制作有效Prompt的具体技巧,以利用这些好处。

相关文章
|
6月前
|
自然语言处理
深入了解Prompt工程及其在GPT-3中的应用
深入了解Prompt工程及其在GPT-3中的应用
107 0
|
5月前
|
机器学习/深度学习 移动开发 自然语言处理
大模型Prompt-Tuning技术入门(二)
Prompt-Tuning是一种在大型语言模型中进行下游任务适配的技术,起源于GPT-3的In-context Learning和Demonstration Learning。它通过构建Prompt(提示)和Verbalizer(标签映射)来转换任务,比如将分类任务转化为填空问题。PET模型是Prompt-Tuning的早期实践,通过固定模板(Pattern)和标签词(Verbalizer)来实现。Prompt-Oriented Fine-Tuning是Prompt-Tuning的一种形式,将任务转换为与预训练任务相似的形式,如BERT的MLM任务。
|
机器学习/深度学习 数据挖掘
【提示学习】HPT: Hierarchy-aware Prompt Tuning for Hierarchical Text Classification
本文是较早把Prompt应用到层级多标签文本分类领域的论文。思路是把层级标签分层编入到Pattern中,然后修改损失函数以适应多标签的分类任务。
212 0
|
1月前
|
搜索推荐
LangChain-10 Agents langchainhub 共享的提示词Prompt
LangChain-10 Agents langchainhub 共享的提示词Prompt
15 3
|
2月前
|
自然语言处理 Python
【Prompt Engineering提示:Active-Prompt、方向性刺激提示、PAL(程序辅助语言模型)】
Diao等人(2023)提出了一种名为Active-Prompt的新方法,通过自适应提示来优化大型语言模型(LLMs)在特定任务中的表现。此方法通过不确定性评估选择需标注的问题,利用少量人工标注的思维链(CoT)示例逐步优化模型,提高其解决问题的能力。相比固定范例,Active-Prompt能够更有效地针对不同任务调整提示,从而提升模型性能。
【Prompt Engineering提示:Active-Prompt、方向性刺激提示、PAL(程序辅助语言模型)】
|
3月前
|
自然语言处理
怎样能写出完美的Prompt
【8月更文挑战第20天】怎样能写出完美的Prompt
|
5月前
|
机器学习/深度学习 自然语言处理 算法
大模型Prompt-Tuning技术入门(一)
Prompt-Tuning是NLP领域的新兴技术,旨在减少预训练模型Fine-Tuning的需要。它通过构造提示(Prompt)使预训练模型能适应各种任务,降低了语义偏差和过拟合风险。Prompt作为任务的“提示词”,可以是人工定义、自动搜索或生成的模板,与预训练的MLM头结合使用,只需少量甚至无标注数据,通过标签词映射进行预测。此方法从GPT-3的In-Context Learning发展至今,包括了连续Prompt、大规模模型的Instruction-tuning和Chain-of-Thought等进展。 Prompt-Tuning是向少监督、无监督学习迈进的关键研究。
|
5月前
|
存储 机器学习/深度学习 自然语言处理
大模型Prompt-Tuning技术进阶
近年来,随着Prompt-Tuning技术的崛起,研究者们发现,在拥有超过10亿参数的大规模模型上,采用Prompt-Tuning相较于传统的Fine-tuning方法能带来显著的性能提升。特别是在小样本甚至零样本学习场景下,Prompt-Tuning能够极大地激发模型的潜力。这一成就的取得主要归功于三个关键因素:模型庞大的参数量、训练过程中使用的海量语料,以及精心设计的预训练任务。
|
6月前
|
人工智能 自然语言处理
到底什么是Prompt?
到底什么是Prompt?
|
算法
prompt
prompt
179 1