必知的技术知识:EMNLP2021基于Prompt的方面级情感分析研究【转载以学习、回忆】

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 必知的技术知识:EMNLP2021基于Prompt的方面级情感分析研究【转载以学习、回忆】

来源链接:


来源Fudan DISC实验室


转载以学习、回忆


1. 基于自然语言提示的开放式方面目标情感分类 (Open Aspect Target Sentiment Classification with Natural Language Prompts)


该篇文章利用自然语言提示(Prompt),将方面目标情感分类(Aspect Target Sentiment Classification)任务定义为自然语言推断(NLI)和完形填空任务,从而更好地发挥预训练模型的性能,在零样本(Zero-shot)、少样本(Few-shot)和全样本的场景下都表现出了良好的性能,同时体现出良好的鲁棒性。


论文解读链接:


一、背景与问题提出


衡量文本在某些方面(子主题)上的情绪具有直接的商业价值,比如一家连锁酒店可能希望根据客户对其房间清洁和前台服务的积极评价的比例来做出业务决策。尽管有很多的监督学习方法可以采用,但目前的研究基本集中在餐厅、电脑、推特评论几个公开数据集上,实际应用中往往因为缺乏目标领域的标记数据导致效果不理想。


“Mike和其他员工非常有礼貌,迅速回应了我们的要求。前台服务很好。”


假设模型能够从第一个句子推理出第二个句子,那么就有利于模型对“前台服务”作出正确的分类。据此,论文设计了两种Prompt方案:(a)完形填空Prompt(b)自然语言推理(NLI)Prompt


二、方法


本文的方法如下图所示


1、完形填空(next/masked word prediction)


第一种方法遵循了Schick和Schütze(2020)首次提出的完形填空问题Prompt设计,采用了几种比较简单的句式:


? I felt the {aspect} was 【MASK】.


? //代码效果参考:http://www.lyjsj.net.cn/wx/art_24169.html

The {aspect} made me feel 【MASK】.

? The {aspect} is 【MASK】.


2、自然语言推理(NLI entailment predictions)


第二种方法有点类似于将多分类拆成若干二分类的思路:首先生成关于目标aspect的积极和消极假设(例如“The {aspect} is good; The {aspect} is bad.”),分别接在原输入后面,判断原始句子是否能推理出假设句子,通过获得每个假设的蕴涵概率(entailment probabilities)来得到积极情绪和消极情绪的得分,而中性情绪则由两个假设的中立概率(neutral probabilities)平均得到。这种方法也可以实现zero-shot learning。


2. 用文本生成任务解决方面类别情感分析 (Solving Aspect Category Sentiment Analysis as a //代码效果参考:http://www.lyjsj.net.cn/wz/art_24167.html

Text Generation Task)

该篇文章针对方面类别情感分析(Aspect Category Sentiment Analysis)任务,利用预训练语言模型BART将ACSA任务转换为自然语言生成任务,通过遵循预训练时的任务设置来更直接地使用预训练模型的知识,在几个benchmark上都取得了最优的结果,尤其在零样本、小样本场景下优势显著。


任务定义


如图2所示,对于ACD任务,输入为原始文本(The restaurant was too expensive)与正负Prompt提示(The {category} is discussed / is not discussed)相结合,输出则利用BART模型,取两者中得分较高者为最终结果。


对于ACSA任务,输入为原始文本(The restaurant was too expensive)与情感Prompt提示(The sentiment polarity of {category} is positive/negative/neutral)相结合,输出则是三者中得分较高者。


以ACSA任务为例,该篇文章将BERT/BART Classification和BERT/BART MLM 作为基线模型。对于分类模型,BERT模型的输入形式为"【CLS】 input sentence 【SEP】 given_category 【SEP】",最终以【CLS】作为表示,BART模型如图3-(a)所示,输入形式为" input sentence given_category ",以解码器的最终输出作为表示。对于掩码语言模型(MLM),BERT MLM模型将输入句子和提示作为模型输入,并针对给定类别预测情感极性的标签词,BART模型如图3-(b)所示,将同样的输入送入编码器和解码器中,将【MASK】位置处最高的预测结果作为输出。


本文中提到的BART generation方法如图3-(c)所示,将原句子作为Encoder端的输入,将提示作为Decoder端的输入,最后为每一个类别可能的情感极性计算分数,选择分数最高的极性作为最终结果。


未完

相关文章
|
14天前
|
人工智能 数据挖掘
AI长脑子了?LLM惊现人类脑叶结构并有数学代码分区,MIT大牛新作震惊学界!
麻省理工学院的一项新研究揭示了大型语言模型(LLM)内部概念空间的几何结构,与人脑类似。研究通过分析稀疏自编码器生成的高维向量,发现了概念空间在原子、大脑和星系三个层次上的独特结构,为理解LLM的内部机制提供了新视角。论文地址:https://arxiv.org/abs/2410.19750
57 12
|
5月前
|
人工智能
语言≠思维,大模型学不了推理:一篇Nature让AI社区炸锅了
【7月更文挑战第3天】新研究表明语言和思维是分离的,引发AI社区激烈讨论。论文通过fMRI实验显示语言处理与思维在大脑中独立,即使无语言人们仍能推理。这质疑了AI仅通过语言学习高级智能的可能性,暗示应更关注模拟人类思维。[[1](https://www.nature.com/articles/s41586-024-07522-w)]
92 1
|
6月前
|
人工智能
GPT-4被证实具有人类心智登Nature!AI比人类更好察觉讽刺和暗示
【6月更文挑战第5天】Nature发表的论文显示,GPT-4在心智理论任务中表现出色,特别是在识别讽刺上超越了人类。然而,在理解失礼行为和相关社会意识方面,GPT-4逊于人类,而LLaMA2-Chat在此类情境中表现更佳。尽管如此,GPT-4在失礼行为可能性测试中展现出高超的理解力。该研究强调了AI在模拟人类心理状态方面的进步与局限性。[链接](https://www.nature.com/articles/s41562-024-01882-z)
86 1
|
7月前
|
人工智能 测试技术 量子技术
Claude 3智商测试101分超越人类/碾压GPT-4!
【2月更文挑战第16天】Claude 3智商测试101分超越人类/碾压GPT-4!
71 1
Claude 3智商测试101分超越人类/碾压GPT-4!
|
人工智能 自然语言处理 测试技术
ACL 2022 | 一口气翻两千词,字节AI Lab提出篇章到篇章的机器翻译新思路
ACL 2022 | 一口气翻两千词,字节AI Lab提出篇章到篇章的机器翻译新思路
265 0
ACL 2022 | 一口气翻两千词,字节AI Lab提出篇章到篇章的机器翻译新思路
|
机器学习/深度学习 传感器 人工智能
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华(2)
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华
207 0
|
机器学习/深度学习 传感器 编解码
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华(1)
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华
647 0
|
机器学习/深度学习 数据采集 人工智能
从BERT到ChatGPT,北航等9大顶尖研究机构全面综述:那些年一起追过的「预训练基础模型」
从BERT到ChatGPT,北航等9大顶尖研究机构全面综述:那些年一起追过的「预训练基础模型」
217 0
|
机器学习/深度学习 人工智能 自然语言处理
Google探索全新NLU任务「自然语言评估」,正式面试前让AI帮你热个身!
Google探索全新NLU任务「自然语言评估」,正式面试前让AI帮你热个身!
159 0
|
机器学习/深度学习 人工智能 编解码
1句话生成视频AI爆火!Meta最新SOTA模型让网友大受震撼(2)
1句话生成视频AI爆火!Meta最新SOTA模型让网友大受震撼
215 0