PTPCG: Efficient Document-level Event Extraction via Pseudo-Trigger-aware Pruned Complete Graph论文解读

简介: 据我们所知,我们目前的方法是第一项研究在DEE中使用某些论元作为伪触发词的效果的工作,我们设计了一个指标来帮助自动选择一组伪触发词。此外,这种度量也可用于度量DEE中带标注触发词的质量。

Efficient Document-level Event Extraction via Pseudo-Trigger-aware Pruned Complete Graph



基于伪触发感知的剪枝完全图的文档级事件抽取


code:Spico197/DocEE: 🕹️ A toolkit for document-level event extraction, containing some SOTA model implementations. (github.com)


paper:Efficient Document-level Event Extraction via Pseudo-Trigger-aware Pruned Complete Graph | IJCAI


期刊/会议:IJCAI 2022


摘要


以前对文档级事件提取的大多数研究主要集中于以自回归的方式构建论元链,这取得了一定的成功,但在训练和推理方面效率都很低。与之前的研究相比,我们提出了一种快速、轻量级的模型,称为PTPCG。在我们的模型中,我们设计了一种新的事件论元组合策略,并通过剪枝完全图设计了一个非自回归解码算法,这些图是在自动选择的伪触发器的指导下构建的。与之前的系统相比,我们的系统以19.8%的参数和更低的资源消耗获得了竞争性的结果,训练只需3.8%的GPU小时,推理速度高达8.5倍。此外,我们的模型显示了具有(或不具有)触发器的数据集的优异兼容性,伪触发器可以作为带标注触发器的补充,以进一步改进。


1、简介


事件提取(EE)旨在用给定的文本填充事件表。与侧重于构建以触发词为中心的树的句子级EE(SEE)不同,文档级EE(DEE)是解码多个句子中丰富实体的论元组合,并将这些组合填充到事件记录表中,如图1所示,标注的触发器通常不可用。


80342be6bb474b7ba20b6d801afd8dad.png


DEE面临的挑战之一是没有触发器的事件-论元组合。DEE数据集中的触发器要么不存在,要么标注质量很低,因为大规模数据集通常是通过与现有知识库(KB)的远程监督(DS)对齐来生成的。因此,在最近的研究中,触发词的缺失推动了无触发器参数组合方法的发展。Yang等人首先识别一个关键句子,然后通过查找句子附近的论元来填充事件记录表,而部分全局特征和参数仍然缺失。Zheng等人和Xu等人充分利用了全局信息,通过构建有向无环图(DAG)进行了重大改进。然而,这种基于DAG的方法需要大量的计算资源,因为它们依赖于自回归方式来解码参数组合,这在长文档的训练和推理中都是低效的。同时,构建DAG会消耗大量内存来存储以前的路径。因此,在最少四个32GB GPU的情况下,训练这种基于DAG的DEE模型几乎需要一周的时间,而且推理速度也非常慢。


考虑到DEE中的上述挑战以及基于DAG的方法中的速度和内存消耗问题,在本文中,我们的目标是1)提出一种通用的事件参数组合策略,该策略既适用于有触发词,也适用于无触词的DEE;2)为文档级事件提取提供了一个非常快速和轻量级的模型。我们提出了一种新的非自回归方法,称为伪触发感知剪枝完全图(PTPCG)。具体来说,我们将每个论元组合表述为一个剪枝完全图,其中重要论元被识别并视为一组具有双向连接的伪触发器,其他普通论元以定向方式从这些伪触发器链接。基于带有伪触发器的剪枝完全图,我们设计了一种具有非自回归解码策略的事件论元组合提取算法。


实验结果表明,我们的PTPCG仅使用基于DAG的SOTA模型19.8%的参数就可以获得有竞争力的结果,仅需3.8%的GPU小时训练,推理速度快8.5倍。此外,我们的PTPCG具有高度灵活性和可扩展性,可以用作基于非自回归触发词的事件提取的通用架构。如果每个组合只选择一个伪触发词,则剪枝完全图将成为以触发词为中心的树,如SEE。此外,可以采用伪触发词作为补充,以增强带标注的基于触发词的方法。


总之,我们的贡献包括:


  • 我们提出了一种新的非自回归事件论元组合范式,该范式基于带有伪触发词的剪枝完全图,该范式在带有(或不带有)触发词的文档级事件提取中兼容。


  • 我们的模型对于端到端文档级事件抽取是快速和轻量级的,我们进行了广泛的实验以显示效率和效果。


  • 据我们所知,我们目前的方法是第一项研究在DEE中使用某些论元作为伪触发词的效果的工作,我们设计了一个指标来帮助自动选择一组伪触发词。此外,这种度量也可用于度量DEE中带标注触发词的质量。


2、方法


如图2所示,我们的模型可以分为四个部分:1)事件检测执行多标签分类,以识别所有可能的事件类型。2) 实体抽取从文档中提取所有实体,并将这些实体编码为密集向量。3) 组合抽取构建剪枝完全图,并从这些图中解码论元组合。4) 事件记录生成将事件类型的结果和抽取的论元组合起来,以生成最终的事件记录。


22477a8db84443f2a4c79be5e9d02c87.png


2.1 事件检测


对于一个文档D ,使用BiLSTM可以将每个句子s i编码为向量的形式image.png是连接两个双向的表征image.png,∣ s i ∣是第i个句子的长度。每个方向上的最后隐藏状态将被拼接,目的是获取句子级的表征g i ∈ G , image.png


随后,我们遵循Doc2EDAG,并使用随机初始化的事件查询,对G进行多头关注,以对每个事件类型进行二分类。事件检测组件L d e t 的损失函数被定义为二分类交叉熵损失。


2.2 实体抽取


实体提取任务可以被制定为BIO范式中的序列标注任务。为了增强实体识别,我们通过简单的正则表达式匹配将更多的货币、日期、百分比比率和共享实体,并添加到数据集中。为了处理文档级实体抽取,我们首先将整个文档拆分为句子,并执行句子级的实体提及抽取。然后,我们将BiLSTM与CRF一起使用来提取与事件检测中使用的BiLSTM相同的实体提及。实体抽取的训练目标是最小化每个句子的CRF负对数似然损失L e n t


对于实体提及的所有token,在token级表示上应用最大池操作以获得实体提及表征m ~ j \widetilde m_j

m

 

j

。由于实体提及类型已被证明对下游子模块有效,我们通过查找嵌入表将预测的离散实体提及类型转换为向量。在连接image.png和类型嵌入l j  之后,我们得到最后实体提及表示m j =image.png,其中d a = d h + d l ,dl表示l j 的维度。最后,对实体的所有实体提及进行聚合,以通过另一个最大池获得实体表示image.png。为了更好地建模实体语义和组合提取的潜在连接,应用了额外的BiLSTM层来获得实体表示集合ε =image.png


2.3 组合抽取


在本节中,我们将介绍选择伪触发词、构建剪枝完全图以及从图中解码组合的细节。


伪触发词的选择:由于文档长度和数据集的规模,很难在文档中手动标注常规触发词。相反,我们以自动方式为每个事件类型选择一组伪触发词。


根据经验,触发词是扮演两个角色的关键字:1)触发词可用于识别组合;2) 触发词是可以区分不同组合的记录。组合是由论元组成的,我们可以通过找到所有对应的论元来提取特定的组合。为此,我们设计了一个重要度度量,用于评估一组论元是否可以用作伪触发词的可能性。通常,我们首先根据重要性得分选择一组论元角色作为每个事件类型的候选,并将相应的论元作为伪触发词。


形式上,重要度得分是通过存在性和可区分性来获得的。对于t i 类型中预定义论元角色的子集,选择image.png作为伪触发词候选。∣R∣是一个超参数,表示每个论元组合的选定为触发词的数量。存在性度量R的自变量是否能够识别组合。image.png是事件记录的数量,R 至少对应一个论元不为NULL,N ( i ) 是t i的总记录数。可区分性被定义为满足触发词可以区分不同的组合,其中image.png是R 的论元不出现在同一文档中的其他记录中的记录数。随着存在性和可分辨性的增加,通过选择具有最高重要性分数的候选来选择伪触发词。


image.png


剪枝完全图构建:基于DEE任务设置和数据分析,我们提出了一个假设,即相同组合中的论元在语义空间中彼此接近。根据这个假设,我们将伪触发词作为论元组合的核心,并将每个组合表示为剪枝后的完全图。如图2的剪枝完全图所示,对于伪触发词image.pngimage.png在相同组合中的任意两个论元,它们是双向连接的,其中邻接矩阵image.png=image.png=1。对于同一组合中的伪触发词image.png和普通论元image.png,它们通过有向链路连接,并且image.png= 1 。此外,每个论元a ( i ) 都有一个自循环连接,其中image.png= 1。

yA 中的其他实体为零,其中不参与任何组合的实体是图中的孤立节点。


在获得实体表示之后,应用点积的相似性函数(等式4-6)来估计它们的语义距离:


image.png


image.png是相似度矩阵,W s , W e ∈ R d a × d a ,b s , b e ∈ R d a是语义空间度量映射的可训练参数。


在训练过程中,我们使用二分类交叉熵损失去度量组合损失L c o m b


为了预测修剪后的完整图的二分类邻接矩阵A 以供进一步解码,此处使用阈值γ (等式7)。


image.png


非自回归组合解码。使用非自回归解码算法基于预测的相邻矩阵A AA提取事件论元组合。


首先,基于节点的出度识别所有伪触发词,并将每个伪触发词组识别为一个团。如果实体的出度大于0(自循环除外),则该实体被视为伪触发词。对于∣R∣=1,所有组合都是以伪触发词为中心的树,其中每个组合都由伪触发词及其邻居组成。否则,首先应用Bron Kerbosch(BK)算法来查找所有可能的派系(图3中的步骤1)。要应用BK算法,论元之间的链接必须是无向的,因此我们首先提取所有双向链接作为无向输入。


b5a3bdba89034a5cb032686f231224e4.png


如图3所示,下一步是在组合中查找普通(非伪触发词)论元。我们进一步利用团中每个伪触发词的所有邻居。之后,执行交集操作以查找通常共享的普通论元。这种组合由一个伪触发词团及其共同的普通论点组成。对于那些在组合中只有一个论元的极端记录,所有预测的实体都作为默认组合聚合在一起。


文档长度不影响事件记录生成速度,并且我们的事件记录生成的时间复杂度是多项式( O ( N t × N c ) ),而基于DAG的模型是( O ( N t × N s × N r ) ),其中N t 、 N c 、 N s 、 N r 是预测类型、组合、预测跨度和每种类型的平均角色数。在大多数情况下,N s × N r ≥ N c N_s ,因此我们的PTPCG始终保持速度优势。


2.4 事件记录生成


从剪枝后的完整图中获得组合集合C 后,下一步是将这些组合填充到事件表中。首先,所有组合都应与事件类型匹配。由于事件检测是一个多标签分类任务,因此可能有不止一种类型的预测。对于所有类型预测image.png 和组合C ,我们执行笛卡儿积,得到所有类型组合对< t j , c k > ∣ 1 ≤ j ≤ ∣ T p ∣ , 1 ≤ k ≤ ∣ C ∣ 。


对于每一对< t j , c k > ,我们使用事件相关前馈网络(FFN)作为分类器,以获得c k 中所有论元ε k 的可能角色结果,并使用Sigmoid形函数获得概率image.png。损失L r o l e 由二分类交叉熵函数计算。


在角色分类任务中,实体可以充当记录中的多个角色,而表中的角色只能由一个实体填充。根据此设置,我们取实体image.png作为角色image.png 的自变量,当且仅当其满足等式8中的约束。如果∀ j ∈ [ 1 , ∣ T p ∣ ] ,image.png< 0.5,则该对被识别为无效候选,将被丢弃。


image.png


2.5 优化


我们的PTPCG是一个端到端的模型,具有联合培训和计划采样策略。总损失是所有损失的加权和,如下所示:


image.png


其中,α1、α2、α3、α4是降低不平衡损失的超参数。


3、实验


3.1 数据集


ChFinAnn:ChFinAnn是迄今为止最大的DEE数据集,通过无触发词标注的远程监督对齐构建,这在先前的研究中被广泛使用。该数据集包含32k条财务公告和48k条事件记录,其中29%的文档有不止一条记录,98%的记录有分散在不同句子中的论点。平均一份文件包含20个句子,最长的文件包含6.2k个汉字。


DuEE-fin:DuEE-fin是另一个带有触发词标注的DEE数据集。它包含13种事件类型和11.7k个文档,在线评估测试集。DuEE-fin中的每条记录都有一个标记的触发词,没有特定位置,36%的记录在文档中共享相同的触发词。


3.2 实验设置


我们根据ChFinAnn中开发集的性能选择系统的超参数。在PTPCG中,我们使用两层共享的BiLSTM进行事件检测和实体抽取,另外两层BiLSTM用于实体编码。我们使用与相同的词汇表,并随机初始化所有嵌入,其中d h = 768 和d l = 32 。Adam优化器的学习率为5e-4,最小批量大小为64。等式9中的权重为0.05、1.0、1.0和1.0,等式7中的γ 为0.5。遵循Zheng等中的设置,我们训练我们的模型100个epoch,并选择开发集上F1得分最高的检查点,在测试集上进行评估。


3.3 Baseline和评价指标


Baseline:DCFEE(DCFEE-O,DCFEE-M)、Doc2EDAG(GreedyDoc)、GIT。


Metrics:F1-score。


3.4 主要结果


41a21c2620c64f5fba58d187c336889a.png


3.5 对比模型参数和速度


对比模型参数的数量:如表1所示,在所有模型中,PTPCG是最轻量级的模型,并且与DCFEE处于相同的规模,而PTPCG在ChFinAnn all上以16.2%的绝对分数超过DCFEE-O。在不考虑16M词汇嵌入参数的情况下,PTPCG仅采用了GIT的19.8%的参数,并取得了有竞争力的结果。


对比速度:得益于轻量级架构设计和非自回归解码风格,我们的PTPCG在训练和推理方面都很快。


比较表1中所示的训练时间,训练GIT需要633.GPU小时,而PTPCG速度快26.4倍,仅需24.0GPU小时。这些事实表明,与其他方法相比,PTPCG的训练效率更高,所需的计算资源成本更低,整个训练过程从4个NVIDIA V100 GPU的几乎一周缩短到1个GPU的一天。


根据图4中的推理速度测试,PTPCG比其他模型更具可扩展性。随着批量大小的增长,PTPCG变得更快,最终稳定在每秒125个文档,而Doc2EDAG和GIT几乎没有随着批量大小增长,峰值分别为19和15个文档/秒。PTPCG比Doc2EDAG和GIT快7.0倍和8.5倍。作为Doc2EDAG的增强版本,GIT平均比Doc2EDAG慢21.2%,当批处理大小为128时,在32GB内存GPU上会产生OOM错误。为了更进一步检查不同的编码器,我们将transformer替换为transformer编码器,创造了一个TransPTPCG模型,和Doc2EDAG具有一样多的参数。图4中的结果表明,TransPTPCG比Doc2EDAG快2.5倍,验证了非自回归组合解码的优势。


449cc7f8dd8d41ebade1329c004f8e51.png


3.6 作为补充的伪触发词


PTPCG能够处理带或不带人工标注的触发词,自动选择的伪触发词可以作为增强性能的补充。


6732fec6270f4fa88ddf54a58904567b.png


如表2所示,我们发现伪触发器可以帮助触发词将重要性得分从62.9提高到93.7,结果表明,这有助于识别组合,并使离线开发评估提高0.7%,在线测试集提高0.8%。


13436809b75e47fdad90569a44c1fa46.png


为了进一步验证伪触发器选择的重要性分数的有效性,我们选择了具有中间和最低重要性分数而不是最高重要性分数的伪触发词组,并分析了表3中的结果。这个结果展示了重要性和综合分数存在正相关性。然而,最高重要度得分(88.3%)不等于100.0%,这可能会限制解码的上限。我们将在第3.7节中详细解释错误分析。


3.7 错误分析


尽管修剪后的完整图结构对于训练和推理是有效的,但它在相似性计算(相邻矩阵预测)和组合解码中并不完美。这里我们分析了组合解码算法的上界,并讨论了未来的方向。


表4中的结果表明,伪触发器数量较少的模型更好。然而,具有更多伪触发器的模型具有更高的解码上限和更高的重要性分数。为什么具有更多伪触发器的模型具有更大的重要性,但仍然会导致更低的性能?表3和表4中的结果可以回答这个问题。具有相同|R|的模型具有很强的相关性,即更高的重要性带来更高的度量分数,这验证了基于重要性分数的伪触发选择策略的有效性。然而,更多的伪触发器会带来更多的连接,并且该模型可能不够健壮,无法正确预测每个连接,从而导致相邻的准确性下降。


总体而言,更多的伪触发器提高了上限并降低了组合错误率,这是一种权衡,但也为恢复实体之间的连接带来了新的挑战。我们认为改进相似性计算和相邻矩阵预测是未来的发展方向。

5415862175444b848cefae9cbcc47a33.png



4、相关工作


完全标注的数据集通常规模较小。远监督(DS)构建的数据集规模很大,但它们很难将触发器与记录相匹配,因此可能缺少触发器。与基于触发器的方法不同,Liu等人认为,可以在没有触发器的情况下检测事件类型。Yang等人使用关键句子窗口中的实体提取事件记录。它很有效率,但从其他句子中漏掉了很多信息。为了充分利用整个文档中的所有实体,Doc2EDAG将论元组合制定为有向无环图(DAG),在DEE方面取得了巨大进展。GIT是Doc2EDAG的变体,其中添加了图形神经网络,以帮助实体编码,并在解码期间进一步利用全局记忆机制。DAG以自回归的方式提取组合,这非常耗时,并且需要全局内存模块中的巨大空间来存储所有先前的路径。此外,Doc2EDAG和GIT都是大型模型,Doc2EDAP和GIT使用12层和16层变压器编码器。为了训练这样的模型,至少需要运行四个32GB的GPU近一周。Huang和Jia利用BERT作为句子表示,并通过图形神经网络利用句子之间的关系来帮助识别固定数量的组合。为了加快DEE的速度,我们提出了一种新的非自回归解码策略,并与之前的工作相比,提高了训练和推理的速度。


5、总结


为了追求快速和通用的文档级事件提取(DEE),我们提出了一个名为PTPCG的非自回归模型。对于没有触发器的DEE,我们首先选择一组伪触发器来构建剪枝的完全图,然后训练一个轻量级模型来提取所有可能的组合,这实现了非自回归解码,与SOTA模型相比,速度高达8.5倍。对于带标注触发器的DEE,伪触发器也显示了改进的能力,甚至比带标注的仅带触发器的方法更好。总之,与以前的系统相比,我们的模型花费更少的资源,但获得了更好或可比的结果。


我们提出了一个名为PTPCG的非自回归模型。对于没有触发器的DEE,我们首先选择一组伪触发器来构建剪枝的完全图,然后训练一个轻量级模型来提取所有可能的组合,这实现了非自回归解码,与SOTA模型相比,速度高达8.5倍。对于带标注触发器的DEE,伪触发器也显示了改进的能力,甚至比带标注的仅带触发器的方法更好。总之,与以前的系统相比,我们的模型花费更少的资源,但获得了更好或可比的结果。


虽然PTPCG在邻接矩阵预测中并不完美,但我们认为它有能力组合不同的DEE任务,需要更多的探索。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
机器学习/深度学习 移动开发 自然语言处理
DEPPN:Document-level Event Extraction via Parallel Prediction Networks 论文解读
当在整个文档中描述事件时,文档级事件抽取(DEE)是必不可少的。我们认为,句子级抽取器不适合DEE任务,其中事件论元总是分散在句子中
132 0
DEPPN:Document-level Event Extraction via Parallel Prediction Networks 论文解读
|
机器学习/深度学习 数据挖掘
ACL2023 - An AMR-based Link Prediction Approach for Document-level Event Argument Extraction
最近的工作引入了用于文档级事件论元提取(文档级EAE)的抽象语义表示(AMR),因为AMR提供了对复杂语义结构的有用解释,并有助于捕获长距离依赖关系
191 0
|
存储 移动开发 自然语言处理
Document-Level event Extraction via human-like reading process 论文解读
文档级事件抽取(DEE)特别困难,因为它提出了两个挑战:论元分散和多事件。第一个挑战意味着一个事件记录的论元可能存在于文档中的不同句子中
94 0
|
机器学习/深度学习 存储 数据采集
DCFEE: A Document-level Chinese Financial Event Extraction System based on Automatically Labeled论文解读
我们提出了一个事件抽取框架,目的是从文档级财经新闻中抽取事件和事件提及。到目前为止,基于监督学习范式的方法在公共数据集中获得了最高的性能(如ACE 2005、KBP 2015)。这些方法严重依赖于人工标注的训练数据。
133 0
|
机器学习/深度学习 存储 数据挖掘
Global Constraints with Prompting for Zero-Shot Event Argument Classification 论文解读
确定事件论元的角色是事件抽取的关键子任务。大多数以前的监督模型都利用了昂贵的标注,这对于开放域应用程序是不实际的。
73 0
|
自然语言处理 Java 测试技术
Saliency as Evidence: Event Detection with Trigger Saliency Attribution 论文解读
事件检测(ED)是事件抽取的关键子任务,它试图识别文本中特定类型的事件触发词。尽管ED取得了重大进展,但现有方法通常遵循“一个模型适合所有类型”的方法,这种方法认为事件类型之间没有差异,通常会导致相当倾斜的性能。
75 0
|
机器学习/深度学习 人工智能 自然语言处理
DualCor: Event Causality Extraction with Event Argument Correlations论文解读
事件因果关系识别(ECI)是事件因果关系理解的重要任务,其目的是检测两个给定文本事件之间是否存在因果关系。然而,ECI任务忽略了关键的事件结构和因果关系组件信息
102 0
|
机器学习/深度学习 自然语言处理 测试技术
Query and Extract Refining Event Extraction as Type-oriented Binary Decoding 论文解读
事件抽取通常被建模为一个多分类问题,其中事件类型和论元角色被视为原子符号。这些方法通常仅限于一组预定义的类型。
70 0
|
机器学习/深度学习 自然语言处理 数据可视化
EventGraph:Event Extraction as Semantic Graph Parsing 论文解读
事件抽取涉及到事件触发词和相应事件论元的检测和抽取。现有系统经常将事件抽取分解为多个子任务,而不考虑它们之间可能的交互。
82 0
|
机器学习/深度学习 数据采集 自然语言处理
Efficient Zero-shot Event Extraction with Context-Definition Alignment论文解读
事件抽取(EE)是从文本中识别感兴趣的事件提及的任务。传统的工作主要以监督的方式为主。然而,这些监督的模型不能概括为预定义本体之外的事件类型。
105 0
下一篇
无影云桌面