必知的技术知识:EMNLP2021基于Prompt的方面级情感分析研究【转载以学习、回忆】

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: 必知的技术知识:EMNLP2021基于Prompt的方面级情感分析研究【转载以学习、回忆】

来源链接:


来源Fudan DISC实验室


转载以学习、回忆


1. 基于自然语言提示的开放式方面目标情感分类 (Open Aspect Target Sentiment Classification with Natural Language Prompts)


该篇文章利用自然语言提示(Prompt),将方面目标情感分类(Aspect Target Sentiment Classification)任务定义为自然语言推断(NLI)和完形填空任务,从而更好地发挥预训练模型的性能,在零样本(Zero-shot)、少样本(Few-shot)和全样本的场景下都表现出了良好的性能,同时体现出良好的鲁棒性。


论文解读链接:


一、背景与问题提出


衡量文本在某些方面(子主题)上的情绪具有直接的商业价值,比如一家连锁酒店可能希望根据客户对其房间清洁和前台服务的积极评价的比例来做出业务决策。尽管有很多的监督学习方法可以采用,但目前的研究基本集中在餐厅、电脑、推特评论几个公开数据集上,实际应用中往往因为缺乏目标领域的标记数据导致效果不理想。


“Mike和其他员工非常有礼貌,迅速回应了我们的要求。前台服务很好。”


假设模型能够从第一个句子推理出第二个句子,那么就有利于模型对“前台服务”作出正确的分类。据此,论文设计了两种Prompt方案:(a)完形填空Prompt(b)自然语言推理(NLI)Prompt


二、方法


本文的方法如下图所示


1、完形填空(next/masked word prediction)


第一种方法遵循了Schick和Schütze(2020)首次提出的完形填空问题Prompt设计,采用了几种比较简单的句式:


? I felt the {aspect} was 【MASK】.


? //代码效果参考:http://www.lyjsj.net.cn/wx/art_24169.html

The {aspect} made me feel 【MASK】.

? The {aspect} is 【MASK】.


2、自然语言推理(NLI entailment predictions)


第二种方法有点类似于将多分类拆成若干二分类的思路:首先生成关于目标aspect的积极和消极假设(例如“The {aspect} is good; The {aspect} is bad.”),分别接在原输入后面,判断原始句子是否能推理出假设句子,通过获得每个假设的蕴涵概率(entailment probabilities)来得到积极情绪和消极情绪的得分,而中性情绪则由两个假设的中立概率(neutral probabilities)平均得到。这种方法也可以实现zero-shot learning。


2. 用文本生成任务解决方面类别情感分析 (Solving Aspect Category Sentiment Analysis as a //代码效果参考:http://www.lyjsj.net.cn/wz/art_24167.html

Text Generation Task)

该篇文章针对方面类别情感分析(Aspect Category Sentiment Analysis)任务,利用预训练语言模型BART将ACSA任务转换为自然语言生成任务,通过遵循预训练时的任务设置来更直接地使用预训练模型的知识,在几个benchmark上都取得了最优的结果,尤其在零样本、小样本场景下优势显著。


任务定义


如图2所示,对于ACD任务,输入为原始文本(The restaurant was too expensive)与正负Prompt提示(The {category} is discussed / is not discussed)相结合,输出则利用BART模型,取两者中得分较高者为最终结果。


对于ACSA任务,输入为原始文本(The restaurant was too expensive)与情感Prompt提示(The sentiment polarity of {category} is positive/negative/neutral)相结合,输出则是三者中得分较高者。


以ACSA任务为例,该篇文章将BERT/BART Classification和BERT/BART MLM 作为基线模型。对于分类模型,BERT模型的输入形式为"【CLS】 input sentence 【SEP】 given_category 【SEP】",最终以【CLS】作为表示,BART模型如图3-(a)所示,输入形式为" input sentence given_category ",以解码器的最终输出作为表示。对于掩码语言模型(MLM),BERT MLM模型将输入句子和提示作为模型输入,并针对给定类别预测情感极性的标签词,BART模型如图3-(b)所示,将同样的输入送入编码器和解码器中,将【MASK】位置处最高的预测结果作为输出。


本文中提到的BART generation方法如图3-(c)所示,将原句子作为Encoder端的输入,将提示作为Decoder端的输入,最后为每一个类别可能的情感极性计算分数,选择分数最高的极性作为最终结果。


未完

相关文章
|
8月前
|
定位技术 uml
认知科学建模研究、认知神经科学的限制:建模笔记翻译(3)
认知科学建模研究、认知神经科学的限制:建模笔记翻译(3)
61 0
|
机器学习/深度学习 自然语言处理 算法
论文赏析【EMNLP19】语言模型效果不好?也许你可以给它添加一点句法信息
论文赏析【EMNLP19】语言模型效果不好?也许你可以给它添加一点句法信息
|
人工智能 Oracle 机器人
当前prompt工程太像占卜了,与艺术AI交流就像文字游戏
当前prompt工程太像占卜了,与艺术AI交流就像文字游戏
|
机器学习/深度学习 传感器 人工智能
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华(2)
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华
142 0
|
机器学习/深度学习 传感器 编解码
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华(1)
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华
405 0
|
机器学习/深度学习 人工智能 自然语言处理
Google探索全新NLU任务「自然语言评估」,正式面试前让AI帮你热个身!
Google探索全新NLU任务「自然语言评估」,正式面试前让AI帮你热个身!
120 0
|
机器学习/深度学习 人工智能 算法
ML如何做科学发现?牛津大学268页博士论文详述科学机器学习内涵
ML如何做科学发现?牛津大学268页博士论文详述科学机器学习内涵
|
机器学习/深度学习 人工智能 编解码
PAI-Diffusion 模型来了!阿里云机器学习团队带您徜徉中文艺术海洋
PAI-Diffusion系列模型,包括一系列通用场景和特定场景的文图生成模型,本⽂简要介绍PAI-Diffusion模型及其体验方式。
|
机器学习/深度学习 人工智能 算法
深度学习怎么入门?一文弄清楚最常见的专业词汇
深度学习怎么入门?一文弄清楚最常见的专业词汇
127 0
深度学习怎么入门?一文弄清楚最常见的专业词汇
|
机器学习/深度学习 存储 数据采集
机器学习时代,神经科学家如何阅读和解码人类的思想
作者:Jiying 编辑:Joni 这篇文章围绕机器学习(ML)和功能性磁共振成像(fMRI)的应用问题,以三篇最新的研究型论文为基础,探讨基于统计学中 ML 的 fMRI 分析方法。
309 0
机器学习时代,神经科学家如何阅读和解码人类的思想