必知的技术知识:EMNLP2021基于Prompt的方面级情感分析研究【转载以学习、回忆】

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
简介: 必知的技术知识:EMNLP2021基于Prompt的方面级情感分析研究【转载以学习、回忆】

来源链接:


来源Fudan DISC实验室


转载以学习、回忆


1. 基于自然语言提示的开放式方面目标情感分类 (Open Aspect Target Sentiment Classification with Natural Language Prompts)


该篇文章利用自然语言提示(Prompt),将方面目标情感分类(Aspect Target Sentiment Classification)任务定义为自然语言推断(NLI)和完形填空任务,从而更好地发挥预训练模型的性能,在零样本(Zero-shot)、少样本(Few-shot)和全样本的场景下都表现出了良好的性能,同时体现出良好的鲁棒性。


论文解读链接:


一、背景与问题提出


衡量文本在某些方面(子主题)上的情绪具有直接的商业价值,比如一家连锁酒店可能希望根据客户对其房间清洁和前台服务的积极评价的比例来做出业务决策。尽管有很多的监督学习方法可以采用,但目前的研究基本集中在餐厅、电脑、推特评论几个公开数据集上,实际应用中往往因为缺乏目标领域的标记数据导致效果不理想。


“Mike和其他员工非常有礼貌,迅速回应了我们的要求。前台服务很好。”


假设模型能够从第一个句子推理出第二个句子,那么就有利于模型对“前台服务”作出正确的分类。据此,论文设计了两种Prompt方案:(a)完形填空Prompt(b)自然语言推理(NLI)Prompt


二、方法


本文的方法如下图所示


1、完形填空(next/masked word prediction)


第一种方法遵循了Schick和Schütze(2020)首次提出的完形填空问题Prompt设计,采用了几种比较简单的句式:


? I felt the {aspect} was 【MASK】.


? //代码效果参考:http://www.lyjsj.net.cn/wx/art_24169.html

The {aspect} made me feel 【MASK】.

? The {aspect} is 【MASK】.


2、自然语言推理(NLI entailment predictions)


第二种方法有点类似于将多分类拆成若干二分类的思路:首先生成关于目标aspect的积极和消极假设(例如“The {aspect} is good; The {aspect} is bad.”),分别接在原输入后面,判断原始句子是否能推理出假设句子,通过获得每个假设的蕴涵概率(entailment probabilities)来得到积极情绪和消极情绪的得分,而中性情绪则由两个假设的中立概率(neutral probabilities)平均得到。这种方法也可以实现zero-shot learning。


2. 用文本生成任务解决方面类别情感分析 (Solving Aspect Category Sentiment Analysis as a //代码效果参考:http://www.lyjsj.net.cn/wz/art_24167.html

Text Generation Task)

该篇文章针对方面类别情感分析(Aspect Category Sentiment Analysis)任务,利用预训练语言模型BART将ACSA任务转换为自然语言生成任务,通过遵循预训练时的任务设置来更直接地使用预训练模型的知识,在几个benchmark上都取得了最优的结果,尤其在零样本、小样本场景下优势显著。


任务定义


如图2所示,对于ACD任务,输入为原始文本(The restaurant was too expensive)与正负Prompt提示(The {category} is discussed / is not discussed)相结合,输出则利用BART模型,取两者中得分较高者为最终结果。


对于ACSA任务,输入为原始文本(The restaurant was too expensive)与情感Prompt提示(The sentiment polarity of {category} is positive/negative/neutral)相结合,输出则是三者中得分较高者。


以ACSA任务为例,该篇文章将BERT/BART Classification和BERT/BART MLM 作为基线模型。对于分类模型,BERT模型的输入形式为"【CLS】 input sentence 【SEP】 given_category 【SEP】",最终以【CLS】作为表示,BART模型如图3-(a)所示,输入形式为" input sentence given_category ",以解码器的最终输出作为表示。对于掩码语言模型(MLM),BERT MLM模型将输入句子和提示作为模型输入,并针对给定类别预测情感极性的标签词,BART模型如图3-(b)所示,将同样的输入送入编码器和解码器中,将【MASK】位置处最高的预测结果作为输出。


本文中提到的BART generation方法如图3-(c)所示,将原句子作为Encoder端的输入,将提示作为Decoder端的输入,最后为每一个类别可能的情感极性计算分数,选择分数最高的极性作为最终结果。


未完

相关文章
|
2月前
|
机器学习/深度学习 人工智能 算法
NeurIPS 2024:自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释
在人工智能领域,大型语言模型(LLMs)的自我纠错能力正成为研究热点。北京大学和麻省理工学院的研究团队在NeurIPS 2024上发表的研究,通过基于上下文学习的理论分析,揭示了Transformer模型中关键设计在自我纠错中的作用,并提出了“Checking as Context”策略,应用于缓解社会偏见和防御LLM越狱攻击,显著提升了模型性能。然而,研究主要基于简化设置和合成数据集,存在局限性。
90 26
|
2月前
|
机器学习/深度学习 人工智能 算法
Nature:AI也许可以拥有常识,但不是现在
人工智能(AI)的快速发展引发了关于其是否能拥有常识的讨论。尽管AI在特定任务上取得进展,但目前仍缺乏真正的常识理解。常识涉及对物理世界、社会规范和文化背景的理解,难以通过数据和算法完全捕捉。研究人员正通过大规模语言模型和强化学习等方法提升AI的常识能力,但仍面临显著局限性,如对物理世界的直观理解不足、社会文化背景理解欠缺以及常识能力的通用性差等问题。未来,多模态学习和与人类交互有望增强AI的常识能力。
65 20
|
5月前
|
人工智能 自然语言处理 搜索推荐
ECCV 2024:一眼临摹:瞥一眼就能模仿笔迹的AI
 【10月更文挑战第10天】在人工智能领域,手写文本生成技术迎来新突破。最新研究提出“一眼临摹”AI技术,仅需一个手写样本文即可模仿任意书法风格。该技术核心为One-DM模型,结合扩散模型与风格增强模块,实现高效、多样且高质量的手写文本生成,广泛应用于数字签名、个性化信件及艺术创作等领域。
232 2
|
7月前
|
算法 搜索推荐 开发者
ChatGPT Prompt 的神秘巅峰:LangGPT 框架震撼登场,改变一切!
【8月更文挑战第13天】在数字化时代,ChatGPT 以卓越的语言处理能力成为焦点。通过掌握如 LangGPT 的有效思维框架,可显著提升与其交互的质量。关键在于明确问题、精确指令及详述期望输出。例如,撰写推广文案时具体说明产品特点与风格要求;寻求代码帮助时指定算法与语言。这些实践能最大化挖掘 ChatGPT 的潜力,为工作生活带来创新与便利。
121 2
|
9月前
|
人工智能
GPT-4被证实具有人类心智登Nature!AI比人类更好察觉讽刺和暗示
【6月更文挑战第5天】Nature发表的论文显示,GPT-4在心智理论任务中表现出色,特别是在识别讽刺上超越了人类。然而,在理解失礼行为和相关社会意识方面,GPT-4逊于人类,而LLaMA2-Chat在此类情境中表现更佳。尽管如此,GPT-4在失礼行为可能性测试中展现出高超的理解力。该研究强调了AI在模拟人类心理状态方面的进步与局限性。[链接](https://www.nature.com/articles/s41562-024-01882-z)
115 1
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
十个最适合论文写作的GPTs及其应用
十个最适合论文写作的GPTs及其应用
202 0
|
机器学习/深度学习 人工智能 安全
调查分析两百余篇大模型论文,数十位研究者一文综述RLHF的挑战与局限
调查分析两百余篇大模型论文,数十位研究者一文综述RLHF的挑战与局限
388 0
|
机器学习/深度学习 自然语言处理 算法
论文赏析【EMNLP19】语言模型效果不好?也许你可以给它添加一点句法信息
论文赏析【EMNLP19】语言模型效果不好?也许你可以给它添加一点句法信息
111 0
|
机器学习/深度学习 人工智能 自然语言处理
从BERT到ChatGPT,百页综述梳理预训练大模型演变史(2)
从BERT到ChatGPT,百页综述梳理预训练大模型演变史
405 0
【论文写作分析】之四《基于ALBERT-TextCNN模型的多标签医疗文本分类方法》
【论文写作分析】之四《基于ALBERT-TextCNN模型的多标签医疗文本分类方法》
271 0
【论文写作分析】之四《基于ALBERT-TextCNN模型的多标签医疗文本分类方法》