ACL2023 - AMPERE: AMR-Aware Prefix for Generation-Based Event Argument Extraction Model

简介: 事件论元抽取(EAE)识别给定事件的事件论元及其特定角色。最近在基于生成的EAE模型方面取得的进展显示出了与基于分类的模型相比的良好性能和可推广性

AMPERE: AMR-Aware Prefix for Generation-Based Event Argument Extraction Model


41af2872f88b4b71bb71ee9f9906afac.png


文:https://arxiv.org/pdf/2305.16734.pdf

代码:https://github.com/PlusLabNLP/AMPERE

期刊/会议:ACL 2023

摘要


事件论元抽取(EAE)识别给定事件的事件论元及其特定角色。最近在基于生成的EAE模型方面取得的进展显示出了与基于分类的模型相比的良好性能和可推广性。然而,现有的基于生成的EAE模型大多侧重于问题的重新表述和提示设计,而没有纳入已被证明对基于分类的模型有效的额外信息,例如输入段落的抽象语义表示(AMR)。由于基于生成的模型中普遍使用的自然语言形式和AMR的结构化形式的异构性,将这些信息纳入基于生成的模式是具有挑战性的。在这项工作中,我们研究了将AMR纳入基于生成的EAE模型的策略。我们提出了AMPERE,它为生成模型的每一层生成AMR感知前缀。因此,前缀将AMR信息引入到基于生成的EAE模型中,然后改进生成。我们还向AMPERE引入了一种调整后的复制机制,以帮助克服AMR图带来的潜在噪声。对ACE2005和ERE数据集的综合实验和分析表明,在减少训练数据的情况下,AMPERE可以获得4%-10%的F1绝对成绩提高,而且在不同的训练规模下,它通常都很强大。


1、简介


最近,提出了基于生成的EAE模型(Hsu et al, 2022a; Lu et al, 2021; Li et al, 2021; Paolini et al, 2021; Parekh et al, 2022),与传统的基于分类的方法相比,该模型显示出了极大的可推广性和竞争性(Chen et al, 2015; Ma et al, 2020; Hsu et al, 2022b; Fincke et al, 2022)。然而,现有的基于生成的EAE模型大多侧重于问题的重新表述和提示设计,而没有纳入辅助句法和语义信息,这些信息在基于分类的方法中被证明是有效的(Huang et al, 2016; Xu and Huang, 2022; Huang et al, 2018; Ahmad et al, 2021; Veyseh et al, 2020)。


在这项工作中,我们探索了如何将辅助的结构化信息纳入基于生成的EAE模型中。我们关注抽象语义表示(AMR)(Banarescu et al,2013),它从输入句子中提取丰富的语义信息。如图1的示例所示,AMR图总结了输入段落的语义结构,其许多节点和边与事件结构有很强的相似性。例如,触发词appeal可以映射到节点“appeal-01”,appeal的主体可以使用边缘“ARG0”找到。因此,AMR图可以为模型计算事件论元提供重要线索,从而提高基于分类的方法的性能(Zhang and Ji,2021)和更好的可推广性(Huang et al,2018)。然而,目前尚不清楚如何将AMR最好地集成到基于生成的方法中。基于生成的EAE模型中AMR图和自然语言提示之间的异构性造成了模型设计的困难。


为了克服这一挑战,我们提出了AMPERE(AMr-aware Prefix for generation-based Event aRgument Extraction),它将AMR图编码为前缀(Li and Liang,2021),以调节基于生成的EAE模型。具体地,使用额外的AMR编码器将输入AMR图编码为密集向量。然后,这些向量将被分解并作为前缀分发到基于生成的EAE模型中的每个Transformer层。这些生成的前缀被转换为附加的键和值矩阵,以影响注意力计算,从而引导生成。


我们还为AMPERE引入了一种调整后的复制机制,以克服AMR图带来的潜在噪声。具体来说,正如我们在图1中所观察到的,AMR解析器将包括额外的规范化(将washington变成Washington)和单词消歧(使用appeal-01而不是appeal)来创建AMR图。这种规范化可能会影响生成原始输入中没有的一些单词,尤其是在训练数据有限的情况下。因此,我们应用了一种复制机制(See et al, 2017),并添加了一个额外的正则化损失项来鼓励从输入文章中进行复制。


我们使用不同比例的训练数据在ACE 2005(Doddington et al, 2004)和ERE(Song et al, 2015)数据集上进行了实验。我们的结果表明,AMPERE在两个数据集中都优于先前的几种EAE工作。在只使用5%或10%训练数据的低资源设置下,我们可以获得4%-10%的F1绝对改进分数,而且我们的方法在不同的训练规模和不同的数据集上通常都很强大。我们还对将AMR信息纳入基于生成的EAE模型的不同方法进行了全面研究。我们将展示AMPERE是我们探索的各种方法中最好的方法。


2、方法


AMPERE使用DEGREE(Hsu et al. 2022a)作为基于基线生成的EAE模型,并使用AMR感知前缀对其进行扩充,如图1所示。为了生成AMR感知前缀,我们首先使用预训练的AMR解析器来获得输入句子的AMR图。然后,通过图线性化和AMR编码器将图转换为密集向量。然后,这些密集向量将被分解并分布到我们基于基线生成的EAE模型的每一层,因此生成以AMR信息为指导。最后,我们介绍了AMPERE的训练损失和我们调整后的复制机制,该机制可以帮助AMPERE克服AMR图带来的额外噪声。


f89c3f396a1f41fa8fcceb57a42e7a6f.png


2.1 基于生成的EAE模型


尽管我们的AMR感知前缀对所使用的基于生成的EAE模型是不可知的,但我们选择DEGREE(Hsu et al. 2022a)作为我们的基线模型,因为它具有很好的可推广性和性能。在这里,我们提供了该模型的简要概述。


给定一段话和一个事件触发词,DEGREE首先准备prompt,其中包括一个事件类型描述(一个描述触发词的句子)和一个特定于事件类型的模板,如图1所示。然后,给定文章和提示,DEGREE按照EAE模板的格式总结文章中的事件,以便通过比较模板和输出文本可以轻松解码最终预测。以图1中的案例为例,通过将“districts in washington appealed the adjudication from u.s. supreme court.”与 “somebody in somewhere appealed the adjudication from some adjudicator.”的模板进行比较,我们可以知道“districts”是“Plaintiff”角色的论点。这是因为在模型的预测中,“Plaintiff”角色的相应占位符“somebody”已被“districts”取代。


2.2 AMR Parsing


我们方法的第一步是准备获得输入段落的AMR图。我们认为SPRING(Bevilacqua et al. 2021)是一个基于BART的AMR解析器,在AMR 3.0标注上进行了训练,是我们的AMR语法分析器。如图1所示,AMR解析器将输入句子编码为AMR图,这是一个有向图,其中每个节点表示一个语义概念(例如,“give01”、“appeal-01”),每个边描述两个概念之间的分类语义关系(例如,ARG0、location)。


2.3 AMR-Aware 前缀生成


我们的下一步是将信息嵌入到我们基于生成的EAE模型的前缀中(Li and Liang,2021)。为了对AMR图进行编码,我们遵循Konstas等人(2017)的做法,采用深度优先搜索算法将AMR图线性化为序列,如图1中的示例所示。然后,AMR编码器适于对序列的表示进行编码。我们的方法的优点之一是可以灵活地使用与我们基于生成的EAE模型具有不同特征的模型来编码AMR。在这里,我们考虑两个AMR编码器来形成不同版本的AMPERE:


AMPERE(AMRBART):我们考虑使用当前最先进的AMR文本模型的编码器部分——AMRBART(Bai et al. 2022),该模型在AMR 3.0数据上进行了预训练。该模型基于BART-large,并通过添加AMR中的所有关系和语义概念作为额外的标记来扩大其词汇表。使用该模型作为我们的AMR编码器使AMPERE能够利用来自其他任务的知识。


AMPERE(RoBERTa):RoBERTa-large(Liu et al. 2019b)也被认为是我们的AMR编码器,因为预训练的掩蔽语言模型是执行编码任务的典型选择。为了使RoBERTa更好地解释AMR序列,我们遵循Bai等人(2022)将AMR中的所有关系(例如ARG0、ARG1)添加为特殊标记。然而,由于模型没有在丰富的AMR到文本数据上进行预训练,因此我们不将语义概念(例如,以-01结尾的概念)作为额外的标记。


在得到线性化序列的表示后,我们准备l个可学习向量作为查询和注意力层,其中l ll是控制所用前缀长度的超参数。这些查询将使用线性化的AMR序列的表示来计算注意力,然后,我们将获得一组压缩的密集向量P。该P将被转换为前缀(Li and Liang,2021),我们将其注入到基于生成的EAE模型中。


image.png


值得注意的是,Li and Liang(2021)的前缀调整技术使用了一组固定的前缀,而不考虑输入句子的变化,当输入段落变化时,AMPERE会生成一组不同的前缀。并且变化反映了不同AMR图的表示。


在我们基于生成的EAE模型中,我们可以将前缀注入编码器自注意块、解码器交叉注意块或解码器自注意块。基于我们的初步实验,我们观察到在编码器自注意块和解码器交叉注意块中使用前缀在AMPERE中效果最好。


2.4 调整复制机制


我们遵循DEGREE的设置,使用BART-large(Lewis et al. 2020)作为预训练的生成模型,并且我们基于生成的EAE模型的训练目标是在给定先前生成的token和编码器的输入上下文x 1 , x 2 , … , x m 的情况下,最大化生成ground-truth的条件概率。


image.png


其中y i  是解码器在步骤i 的输出。在DEGREE的设置中,预测token t tt的概率完全依赖于生成模型。尽管这种设置更类似于BART-large的预训练方式,从而更好地利用了预训练的效果,但对最终预测的松散约束可能会产生错误文本(Ji et al,2022)或不遵循模板的输出。如果使用更少的训练数据并且呈现更多的输入噪声,例如在合并AMR图时,则这样的问题可能会被放大。


为了增强控制,一种常用的技术是将复制机制(See et al, 2017)应用于基于生成的事件模型(Huang et al, 2022, 2021),


image.png


λ 是超参数。与完全依赖从输入复制相比,我们的方法仍然允许生成模型自由生成输入中没有出现的token。与普通的复制机制相比,额外的正则化将引导模型进行更多的复制。利用这种损失,我们端到端地训练整个AMPERE。


3、实验


e8dcfd6d7fce4e86ba898bc694010992.png

dc73312f1eae40479e4114a9e065450b.png


3feaead3301f452cb306e57bad591eb7.png

5136e7170b934718a733e14dfe041051.png


4、总结


在本文中,我们介绍了AMPERE,这是一个配备了AMR感知前缀的基于生成的模型。通过我们的全面研究,我们表明前缀可以作为连接AMR信息和生成模型空间的有效媒介,从而实现辅助语义信息与模型的有效集成。此外,我们引入了一种调整后的复制机制,以帮助AMPERE更准确、稳定地生成输出,而不考虑AMR图带来的额外噪声。通过我们的实验,我们表明AMPERE在每个环境中都实现了一致的改进,并且这种改进在低资源环境中尤为明显。


更多CV和NLP论文解读

目录
相关文章
|
7月前
|
机器学习/深度学习 自然语言处理 算法
【论文精读】ACL 2022:Graph Pre-training for AMR Parsing and Generation
【论文精读】ACL 2022:Graph Pre-training for AMR Parsing and Generation
|
3月前
|
算法 数据挖掘
文献解读-Consistency and reproducibility of large panel next-generation sequencing: Multi-laboratory assessment of somatic mutation detection on reference materials with mismatch repair and proofreading deficiency
Consistency and reproducibility of large panel next-generation sequencing: Multi-laboratory assessment of somatic mutation detection on reference materials with mismatch repair and proofreading deficiency,大panel二代测序的一致性和重复性:对具有错配修复和校对缺陷的参考物质进行体细胞突变检测的多实验室评估
31 6
文献解读-Consistency and reproducibility of large panel next-generation sequencing: Multi-laboratory assessment of somatic mutation detection on reference materials with mismatch repair and proofreading deficiency
|
自然语言处理 算法 vr&ar
X-GEAR:Multilingual Generative Language Models for Zero-Shot Cross-Lingual Event Argument Extraction
我们提出了一项利用多语言预训练生成语言模型进行零样本跨语言事件论元抽取(EAE)的研究。通过将EAE定义为语言生成任务,我们的方法有效地编码事件结构并捕获论元之间的依赖关系。
124 0
|
机器学习/深度学习 自然语言处理 算法
ACL 2019 - AMR Parsing as Sequence-to-Graph Transduction
我们提出了一个基于注意力的模型,将AMR解析视为序列到图的转导。与大多数依赖于预训练的对齐器、外部语义资源或数据扩充的AMR解析器不同
153 0
ACL 2019 - AMR Parsing as Sequence-to-Graph Transduction
|
机器学习/深度学习 数据挖掘
ACL2023 - An AMR-based Link Prediction Approach for Document-level Event Argument Extraction
最近的工作引入了用于文档级事件论元提取(文档级EAE)的抽象语义表示(AMR),因为AMR提供了对复杂语义结构的有用解释,并有助于捕获长距离依赖关系
191 0
|
机器学习/深度学习 自然语言处理 算法
ACL 2022:Graph Pre-training for AMR Parsing and Generation
抽象语义表示(AMR)以图形结构突出文本的核心语义信息。最近,预训练语言模型(PLM)分别具有AMR解析和AMR到文本生成的高级任务。
159 0
|
机器学习/深度学习 自然语言处理 索引
GTEE-DYNPREF: Dynamic Prefix-Tuning for Generative Template-based Event Extraction 论文解读
我们以基于模板的条件生成的生成方式考虑事件抽取。尽管将事件抽取任务转换为带有提示的序列生成问题的趋势正在上升,但这些基于生成的方法存在两个重大挑战
145 0
|
机器学习/深度学习 自然语言处理 数据挖掘
UnifiedEAE: A Multi-Format Transfer Learning Model for Event Argument Extraction via Variational论文解读
事件论元抽取(Event argument extraction, EAE)旨在从文本中抽取具有特定角色的论元,在自然语言处理中已被广泛研究。
90 0
|
机器学习/深度学习 自然语言处理 搜索推荐
TSAR: A Two-Stream AMR-enhanced Model for Document-level Event Argument Extraction论文解读
以往的研究大多致力于从单个句子中抽取事件,而文档级别的事件抽取仍未得到充分的研究。在本文中,我们专注于从整个文档中抽取事件论元
206 0
|
机器学习/深度学习 存储 数据挖掘
Global Constraints with Prompting for Zero-Shot Event Argument Classification 论文解读
确定事件论元的角色是事件抽取的关键子任务。大多数以前的监督模型都利用了昂贵的标注,这对于开放域应用程序是不实际的。
74 0