Prompt单次预测就能做NER——EntLM解读

简介: Prompt单次预测就能做NER——EntLM解读

读了复旦大学发的文章《Template-free Prompt Tuning for Few-shot NER》,是用小样本思路prompt做ner的新方法,就是没开源代码很遗憾,导致有的小问题就是不明白,通过给作者发邮件弄明白了。


目录:



1、原有的prompt做ner的方式,及弊端;


2、该文章的思路;


3、该文章的思路的主要问题的解决思路;


4、我对该文章的思考。


1、原有的prompt做ner的方式,及弊端:



经典的prompt方式,将原文本是新文本模板中的一个槽位,用语言模型去预测另一个槽位,该槽位的取值是事先定好的很能代表label的词,多为一个英文词或比较少(如2个字)的中文。由于是用语言模型预测,依赖预训练的数据,所以理论上可以完全不训练,或者用少样本训练。故而成为小样本学习,或零样本学习。


本文之前的prompt做ner的思路也是如此,如图。


1221f0e54342c3d266fd2abfec28295e.png


与prompt做分类的区别是:


  • prompt-ner需要把候选的槽位组合也当做一个槽位放入模板,从而确定文本中的实体到底是哪些词;


  • 由于上一条,导致每种可能的实体选择都样分别放入模板,分别做一次预测。(如果按照n-gram的说法,相当于把“1~文本长度”-gram 都试一遍)巨大的复杂度将引起巨量的预测,耗时肯定是实际工作中无法承受的。——弊端


所以改进方式就需要摆脱“把候选的槽位组合也当做一个槽位放入模板”的思路,即“候选的槽位组合不能是模板的一个槽位”。


2、该文章的思路:



ccca3b1b512e8c8012525defe067cf0c.png


  • 压根不用模板,而是语言模型做mask的方式去分别预测每个词;


  • 预测出来的词并非是原文本中的词,而是在预设的n个label word中选一个;该label word和槽位类型一一对应;


  • 耗时:n个词构成的文本要做n次预测(这一点文章没提,我想的)。这个时间实际工作中你能接受吗?


  • 文章示例是单个词构成的实体,如果多个词构成的实体,预测时要预测几个mask位?——询问作者后,作者回复:


8b3ae2c8cb545928880b16353789053d.png


3、该文章的思路的主要问题的解决思路:



经典prompt有2个问题:模板如何构建,和label word怎么设置。该文章没用模板,所以只涉及label word怎么设置。


需要注意的是,由于是小样本,所以任务数据集的样本量很小,为了找到更合适的label word,所以从“开放数据”中选择“相应类型”的词和文本。这就导致如果开放数据中没有这种类型,则无法用下述方式找label word。比如,“地点”、“人名”等通用类型的数据好找;但如果是垂类下特有的实体类型,甚至是业务上自己定义的实体类型,则没有相关的开放数据对应,则下述方法无效。


开放数据是指:


9f5ccb97d4d92f33d584e6305d09dd6d.png


文章采用“数据集分布”+“语言模型预测”两种相结合的方式选取label word。


222631ebded1cd7d5fedfe94ef6b94df.png


大致思路是:


  • “数据集分布”是指:该实体类型下,词频最高的词;


  • “语言模型预测”是指:用语言模型对该槽位类型的词做mask后做预测,预测出来的词中选高频词;


  • 实际选用的是二者结合,具体思路是通过选合适的label word让上述两项的概率都高。(就不列公式了。)


4、我对该文章的思考:(下文有修改,之前读文章漏了)



优点:


  • 一句话仅预测一次即可,完全可以用在实际工作中;


  • 不用弄模板,工作量相对下降;


  • 用开源数据提升效果。(得看slot的类别,见下文的“缺点”。)


  • 选label word的思路是独立于“无模板做prompt”的主思路的,所以选label word的思路完全可以被替换,甚至我就人肉设定也未尝不可。


缺点:


  • 对于垂类任务,缺少相关的开源实体的数据,无法在大规模开源数据中选更好的label word。——但由于选label word的思路是独立于主思路的,所以这一点在垂类数据中可以用因地制宜的类似方案作为替代。


不确定的点:


  • 多个词构成的实体,每个mask位都预测同样的label word。有没有更好的方法?


  • 还是对于上一条的情况,对于中文怎么弄?——不能把中文人名也预测成一个中国字吧?——或者2、3个字的mask也未尝不可。——我不能确定英文方案就不行。但我能想到的另一种方式是依赖分词。但还不能直接用,因为对于非实体的词被mask之后,应该预测为什么呢?还没想好。


5、之前读文章漏的地方


按照语言模型的思路,一句话仅需预测一次。


46b9e2fce2316d36d955e6e87acd1301.png

相关文章
|
机器学习/深度学习 人工智能 自然语言处理
一文理解Skip-Gram上下文的预测算法
自然语言处理属于人工智能领域,它将人类语言当做文本或语音来处理,以使计算机和人类更相似,是人工智能最复杂的领域之一。 由于人类的语言数据格式没有固定的规则和条理,机器往往很难理解原始文本。
4533 0
|
存储 机器学习/深度学习 算法
语义检索系统排序模块:基于ERNIE-Gram的Pair-wise和基于RocketQA的CrossEncoder训练单塔模型
语义检索系统排序模块:基于ERNIE-Gram的Pair-wise和基于RocketQA的CrossEncoder训练单塔模型
语义检索系统排序模块:基于ERNIE-Gram的Pair-wise和基于RocketQA的CrossEncoder训练单塔模型
|
4月前
|
机器学习/深度学习 数据采集 PyTorch
使用 PyTorch 创建的多步时间序列预测的 Encoder-Decoder 模型
本文提供了一个用于解决 Kaggle 时间序列预测任务的 encoder-decoder 模型,并介绍了获得前 10% 结果所涉及的步骤。
71 0
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
NeurIPS’23 Paper Digest | 如何把 LLM 的推理能力应用于事件序列预测?
我们完成了首个把 LLM 推理能力引入事件序列领域的工作。代码、数据均已经开源,并将集成进开源库 EasyTPP。
NeurIPS’23 Paper Digest | 如何把 LLM 的推理能力应用于事件序列预测?
|
人工智能 自然语言处理 PyTorch
NLP文本匹配任务Text Matching [有监督训练]:PointWise(单塔)、DSSM(双塔)、Sentence BERT(双塔)项目实践
NLP文本匹配任务Text Matching [有监督训练]:PointWise(单塔)、DSSM(双塔)、Sentence BERT(双塔)项目实践
NLP文本匹配任务Text Matching [有监督训练]:PointWise(单塔)、DSSM(双塔)、Sentence BERT(双塔)项目实践
|
存储 算法 搜索推荐
语义检索系统:基于无监督训练SimCSE+In-batch Negatives策略有监督训练的语义索引召回
语义检索系统:基于无监督训练SimCSE+In-batch Negatives策略有监督训练的语义索引召回
语义检索系统:基于无监督训练SimCSE+In-batch Negatives策略有监督训练的语义索引召回
|
机器学习/深度学习 自然语言处理 算法
SnowNLP使用自定义语料进行模型训练(情感分析)
SnowNLP使用自定义语料进行模型训练(情感分析)
1798 1
SnowNLP使用自定义语料进行模型训练(情感分析)
|
机器学习/深度学习 自然语言处理 大数据
使用Flow forecast进行时间序列预测和分类的迁移学习介绍
使用Flow forecast进行时间序列预测和分类的迁移学习介绍
359 0
使用Flow forecast进行时间序列预测和分类的迁移学习介绍
|
机器学习/深度学习 自然语言处理 算法
快递单中抽取关键信息【一】----基于BiGRU+CR+预训练的词向量优化
快递单中抽取关键信息【一】----基于BiGRU+CR+预训练的词向量优化
|
算法 数据挖掘 Python
ML之NB:利用朴素贝叶斯NB算法(CountVectorizer+不去除停用词)对fetch_20newsgroups数据集(20类新闻文本)进行分类预测、评估
ML之NB:利用朴素贝叶斯NB算法(CountVectorizer+不去除停用词)对fetch_20newsgroups数据集(20类新闻文本)进行分类预测、评估
ML之NB:利用朴素贝叶斯NB算法(CountVectorizer+不去除停用词)对fetch_20newsgroups数据集(20类新闻文本)进行分类预测、评估
下一篇
无影云桌面