Re33:读论文 Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Languag

简介: 本文介绍了prompt的统一定义和当前所用的方法。

1. 什么是prompt-based learning


image.png


示例:

  1. 推文:I missed the bus today.

预测情感的话就在后面加上:I felt so ____

  1. 翻译的x ′  :English: I missed the bus today. French: _____


术语列表:

image.png


子任务示例:

8c2f1673edde445fa0b407ab10615d82.png

image.png

优势:可以直接应用于小样本甚至零样本学习上


1.1 Prompt Addition

  1. slot在template中间叫cloze prompt,在尾部叫prefix prompt
  2. template不一定要是自然语言tokens,也可以是假词(也能嵌入到连续向量)或者直接就是连续向量
  3. slots数不固定


1.2 Answer Search

image.png

基于

image.png

计算

image.png


argmax search或sampling


1.3 Answer Mapping

image.png


2. NLP学习范式的变迁


  1. Fully supervised learning:传统机器学习范式

为了向模型提供合适的inductive bias,早期NLP模型依赖特征工程,神经网络出现后依赖architecture engineering。

在这一阶段出现了少量预训练模型(如word2vec和GloVe),但只占模型参数的一小部分。

  1. pre-train and fine-tune

预训练固定结构的模型(语言模型LM),用以预测未观测到的文本数据的结果。

依赖objective engineering。

不利于探索模型架构:1. 无监督预训练使structural priors选择范围小。2. 测试不同结构的预训练代价太高。

  1. pre-train, prompt, and predict

通过引入文本prompt,下游任务与预训练模型更相似。可以直接不训练。

依赖prompt engineering。

35d649465bb945429eecde0daeb87d00.png


3. Design Considerations for Prompting


44098a69c4444696adaaccc60d5dc7b2.png

3.1 Pre-trained Model Choice

对本文预训练模型介绍部分的笔记放在了另一篇博文中:预训练语言模型概述(持续更新ing…)


训练目标的选择取决于对特定prompting任务的适配,如left-to-right AR LMs适用于prefix prompts,reconstruction目标适用于cloze prompts。标准LM和FTR目标更适宜于文本生成任务。


prefix LM和encoder-decoder架构自然适用于文本生成任务,但也可以根据prompt修改得适用于其他任务。


3.2 Prompt Engineering

prompt template engineering→首先选择prompt shape,接下来考虑用manual or automated的方式


  1. Prompt Shape

cloze prompts VS. prefix prompts

  1. Manual Template Engineering
  2. Automated Template Learning
  • discrete prompts / hard prompts:文本(其实这一部分总容易让我联想到传统NLG使用模板/规则的方法,本文参考文献里还真的有Re3Sum1,但是似乎在正文中没有引用过)

(1)Prompt Mining:从语料库中挖掘

(2)Prompt Paraphrasing:复述已有的seed prompt

(3)Gradient-based Search

(4)Prompt Generation:直接视作文本生成任务

(5)Prompt Scoring

  • continuous prompts / soft prompts:LM嵌入域的向量

image.png

  • static
  • dynamic


3.3 Answer Engineering

包括对Z ZZ和mapping function的设计


  1. answer shape:粒度
  • tokens
  • spans:常用于 cloze prompts
  • sentence:常用于 prefix prompts


  1. answer design method

image.png

  1. Continuous Answer Search:略


3.4 Multi-Prompt Learning

image.png


  1. Prompt Ensembling:连续prompts可能是通过不同初始化或随机种子学到的
  • Uniform averaging

image.png

  • Weighted averaging
  • Majority voting
  • Knowledge distillation
  • Prompt ensembling for text generation:逐token ensemble:

image.png


  1. Prompt Augmentation / demonstration learning:细节略

提供answered prompts来类比(学习重复的模式)

  • Sample Selection
  • Sample Ordering


  1. Prompt Composition


  1. Prompt Decomposition


3.5 Training Strategies for Prompting Methods / Prompt-based Training Strategies

  1. Training Settings

不用训练:zero-shot setting(非真,详细略)

full-data learning

few-shot learning


  1. Parameter Update Methods

image.png

  • Promptless Fine-tuning:pre-train and fine-tune strategy

问题是容易过拟合或不鲁棒,容易灾难性遗忘

  • Tuning-free Prompting

可以用answered prompts增强输入:in-context learning

  • Fixed-LM Prompt Tuning:缺点略
  • Fixed-prompt LM Tuning

具体细节略

null prompt

  • Prompt+LM Tuning:优缺点略


4. 应用


4a5514f97ffc4f90a0b08d833ef34a71.png

2c2c5a68776b43eea74eb2595cda8be0.png


具体的论文列表略。


  1. Knowledge Probing
  • Factual Probing / fact retrieval:计算预训练模型的表征包含多少事实知识,关注对模板的学习
  • Linguistic Probing


  1. Classification-based Tasks:如以slot filling的形式实现
  • Text Classification:常用cloze prompts, prompt engineering + answer engineering, few-shot, fixed-prompt LM Tuning
  • Natural Language Inference (NLI):常用cloze prompts,prompt engineering关注少样本学习场景下的template search。answer spaces常从词表中手动提前选好。


  1. Information Extraction:细节略
  • Relation Extraction
  • Semantic Parsing
  • Named Entity Recognition (NER)


  1. “Reasoning” in NLP:细节略
  • Commonsense Reasoning
  • Mathematical Reasoning


  1. Mathematical Reasoning

extractive QA

multiple-choice QA

free-form QA


  1. Text Generation:其他细节略

prefix prompts + AR预训练语言模型:文本摘要、机器翻译

in-context learning

fixed-LM prompt tuning:data-to-text generation


  1. Automatic Evaluation of Text Generation:建模成文本生成任务(套娃是吧)


  1. Multi-modal Learning


  1. Meta-Applications
  • Domain Adaptation(感觉看起来有点像文本风格迁移,所以文本风格迁移应该也有用prompt来做的工作吧?)
  • Debiasing
  • Dataset Construction


数据集:

image.png

2fb866c120444063ab1af45bc1caf3e0.png


5. Prompt-relevant Topics


dba132b499f44aad9cee5398711bcc11.png

  1. Ensemble Learning VS. prompt ensembling
  2. Few-shot Learning

Prompt augmentation / priming-based few-shot learning

  1. Larger-context Learning
  2. Query Reformulation
  3. QA-based Task Formulation
  4. Controlled Generation
  5. Supervised Attention
  6. Data Augmentation


6. Challenges


  1. Prompt Design
  • Tasks beyond Classification and Generation
  • Prompting with Structured Information
  • Entanglement of Template and Answer
  1. Answer Engineering
  • Many-class and Long-answer Classification Tasks
  • Multiple Answers for Generation Tasks
  1. Selection of Tuning Strategy
  2. Multiple Prompt Learning
  • Prompt Ensembling
  • Prompt Composition and Decomposition
  • Prompt Augmentation
  • Prompt Sharing

image.png

  • Selection of Pre-trained Models
  • Theoretical and Empirical Analysis of Prompting
  • Transferability of Prompts
  • Combination of Different Paradigms
  • Calibration of Prompting Methods

概率预测?这部分没看懂这个术语实际上是什么意思?指的是一种模型对某方面的预测倾向,通过一些方式来进行修正吗?


相关文章
|
6月前
|
机器学习/深度学习 数据挖掘 API
[FastText in Text Classification]论文实现:Bag of Tricks for Efficient Text Classification
[FastText in Text Classification]论文实现:Bag of Tricks for Efficient Text Classification
39 2
|
6月前
|
机器学习/深度学习 数据挖掘 Python
[Bart]论文实现:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation...
[Bart]论文实现:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation...
47 0
|
6月前
|
Python
[UNILM]论文实现:Unified Language Model Pre-training for Natural Language.........
[UNILM]论文实现:Unified Language Model Pre-training for Natural Language.........
44 0
|
自然语言处理 算法
SIFRank New Baseline for Unsupervised Keyphrase Extraction Based on Pre-Trained Language Model
在社交媒体上,面临着大量的知识和信息,一个有效的关键词抽取算法可以广泛地被应用的信息检索和自然语言处理中。传统的关键词抽取算法很难使用外部的知识信息。
161 0
SIFRank New Baseline for Unsupervised Keyphrase Extraction Based on Pre-Trained Language Model
|
机器学习/深度学习 人工智能 自然语言处理
OneIE:A Joint Neural Model for Information Extraction with Global Features论文解读
大多数现有的用于信息抽取(IE)的联合神经网络模型使用局部任务特定的分类器来预测单个实例(例如,触发词,关系)的标签,而不管它们之间的交互。
189 0
|
自然语言处理 算法 vr&ar
X-GEAR:Multilingual Generative Language Models for Zero-Shot Cross-Lingual Event Argument Extraction
我们提出了一项利用多语言预训练生成语言模型进行零样本跨语言事件论元抽取(EAE)的研究。通过将EAE定义为语言生成任务,我们的方法有效地编码事件结构并捕获论元之间的依赖关系。
123 0
|
自然语言处理 数据挖掘 数据处理
【提示学习】Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference
目前流行的第四大范式Prompt的主流思路是PVP,即Pattern-Verbalizer-Pair,主打的就是Pattern(模板)与Verbalizer(标签映射器)。   本文基于PVP,提出PET与iPET,但是关注点在利用半监督扩充自己的数据集,让最终模型学习很多样本,从而达到好效果。
113 0
|
机器学习/深度学习 存储 人工智能
大语言模型的预训练[3]之Prompt Learning:Prompt Engineering、Answer engineering、Multi-prompt learning、Training strategy详解
大语言模型的预训练[3]之Prompt Learning:Prompt Engineering、Answer engineering、Multi-prompt learning、Training strategy详解
大语言模型的预训练[3]之Prompt Learning:Prompt Engineering、Answer engineering、Multi-prompt learning、Training strategy详解
|
机器学习/深度学习 人工智能 自然语言处理
【论文精读】AAAI 2022 - Unified Named Entity Recognition as Word-Word Relation Classification
到目前为止,命名实体识别(NER)已经涉及三种主要类型,包括扁平、重叠(又名嵌套)和不连续NER,它们大多是单独研究的。
243 0
【论文精读】AAAI 2022 - Unified Named Entity Recognition as Word-Word Relation Classification
【COT】Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
【COT】Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
244 0
下一篇
无影云桌面