Multimedia Event Extraction From News With a Unified Contrastive Learning Framework
论文:Multimedia Event Extraction From News With a Unified Contrastive Learning Framework (acm.org)
代码:https://github.com/jianliu-ml/Multimedia-EE (很难复现)
期刊/会议:ACM MM 2022
摘要
从新闻中提取事件在下游应用程序中有很多好处。然而,今天的事件提取(EE)系统通常专注于单一的模态——无论是文本还是图像,并且由于新闻文档通常以多媒体格式呈现,因此这种方法会受到信息不完整的影响。在本文中,我们提出了一种新的多媒体EE方法,通过使用统一的对比学习框架桥接文本和视觉模式。我们的中心思想是为文本和图像创建一个共享空间,以改善它们的相似表示。这通常是通过对文本图像对进行训练来实现的,我们证明,通过研究另一种模态的互补性,可以使用该框架来促进一种模态学习。在基准数据集上,我们的方法实现了一个新的最先进的性能,并显示F1提高了3%。此外,我们证明,即使在视觉模态中没有标注数据的零样本场景中,它也可以实现视觉模态EE最前沿性能。
关键词:多媒体事件抽取、对比学习、图像表征学习
1、简介
目前的EE方法主要用于单一形式——文本或图像[16],并且由于新闻文章通常以多媒体格式呈现,因此它们存在获取不完整信息的风险。考虑图1所示的新闻文章。本文描述了一个攻击事件(用文本单词“fires”表示);然而,事件的一个论点,即[machine gun],只出现在图片中。根据先前的研究,超过30%的新闻图像包含文本中不存在的视觉事件论点[16],使得多媒体EE成为一个关键话题。
多媒体EE的发展有两个主要障碍。第一个是数据问题:由于标注昂贵,标记有并行文本视觉事件的资源有限。现有数据集,如文本模态中的ACE 2005语料库[20]和视觉模态中的imSitu语料库[31],具有完全不同的事件定义/模式,使得跨模态数据共享具有挑战性。第二个问题与建模有关-由于缺乏并行数据,先前的多媒体EE方法通常使用流水线方法和启发式规则来对齐数据[28,33]并学习模态不变模式(例如,使用绑定分类器[16])。然而,这些方法存在一定的缺陷,流水线方法会存在错误传递,学习模态不变模式很难在全局角度捕捉不同模态的依赖性。
在这项研究中,我们提供了一种新的多媒体EE方法,展示了有效应对上述挑战的优势。与之前的工作相比,我们的方法通过统一的对比学习框架为图像、文本和事件模式创建了共享的表示空间。我们证明,使用该框架,任何配对的文本图像资源,无论模式如何,都可以用于模型训练,这大大减轻了缺少并行标记数据的问题。另一方面,该框架避免了管道方法的复杂性,并能够从整体角度对不同模式的相互依赖性进行建模。特别是,给定一个多媒体文档,1)我们可以将图像投影到联合表示空间中,并将其用作增强文本EE的额外证据,2)类似地,我们可以将文本投影到联合表达空间中,以找到增强视觉EE的补充线索。此外,通过评估句子和图像的相似性,这种联合空间自然能够实现跨模态事件的共同参考。
我们基于M2E2基准评估了我们的方法[16]。根据结果,我们的方法显著优于以前的方法(包括单模态方法和多模态方法),在F1中,事件提取和事件论元提取分别提高了2.6%和3.4%-这显然证明了其有效性。有趣的是,通过使用这种对比学习框架,我们发现,即使在没有用于训练的训练数据的零样本场景中,我们的方法也能达到与最先进方法相比的竞争性能。此外,我们进行了一系列定性和定量研究,以调查我们方法的优点和缺点。
总之,我们有三个贡献:
- 我们为多媒体EE提供了一种新的方法,该方法使用统一的对比学习框架来解决数据和模型挑战。作为一项研究多媒体EE对比学习的开创性研究,我们的工作可能会启发这方面的更多研究。
- 我们表明,使用我们的统一框架,无论其标注模式如何,都可以利用不同模式的资源进行学习。此外,通过采用整体建模方法,该统一解决方案避免了管道方法的复杂性。
- 我们根据标准基准建立了新的最先进性能。此外,我们还表明,即使在零样本场景中,我们的方法也能与以前的视觉EE方法相媲美。
2、相关工作
2.1 多媒体学习事件抽取
尽管不同的领域域/模态具有不同的事件定义和数据集,但从新闻中提取事件(EE)是许多应用程序的重要主题。在文本域中,EE是一个经典的信息提取任务,旨在提取文本中的事件实例[1,17],每个事件由一个事件触发词和几个论元(如果有)表示。传统的文本EE方法基于词汇和句法特征[17,30],而现代模型依赖于神经网络[19,21]。与文本EE相比,视觉领域的EE使用了不同的事件定义,该任务通常称为场景识别[24,31]。特别是,给定图像,视觉EE的目标是生成场景的简要总结,包括主要活动(即事件动词)、参与者(即事件论元)以及这些参与者在活动中扮演的角色。
如前所述,现有的EE方法只关注一种模态,直接使用它们进行事件提取可能会导致遗漏重要信息。到目前为止,多媒体EE还处于早期阶段,对这一主题的研究非常有限。其中一项开创性工作[33]研究了通过结合通过弱监督方法获取的图像信息来增强文本EE。同样,另一项工作[28]通过手动获取与新闻文档相关的图像来提高性能。最近的一项工作[16]构建了更细粒度的对齐规则和策略,以学习多媒体EE的跨模态模式;另一方面,另一项工作[27]从应用角度对城市事件的多模态分类进行了研究。尽管如此,现有的多媒体EE方法通常在管道流中受到错误传播的影响,并且缺乏集成各种模式的综合方法。在这项工作中,我们提出了一种新的用于对齐图像和文本的联合对比学习框架,它可以有效地解决上述问题。
2.2 对比学习
对比学习[5]是一种机器学习技术,用于通过指示示例对相似或不同的模型来学习无标签的一般特征;它在数据增强[6,11]、特征聚类[2]、无监督句子嵌入学习[10]等应用中得到了广泛应用[3,7]。关于连接文本和图像,Radford等人[25]提供了一种方法,该方法在预训练任务上使用对比学习来联合训练文本编码器和图像编码器。我们的方法受到[25]的启发,学习图像和文本的联合表示空间,但我们将其扩展到包括标签信息,并设计了一种方法来捕捉多媒体EE的精细训练模式,这不能通过简单地对齐两种模式来解决。据我们所知,这是第一部为多媒体EE引入对比学习的作品;此外,虽然我们的方法使用图像和文本模态作为案例,但它也可能适用于具有两种以上模态的场景。
3、问题定义
我们遵循Li等人[16]定义多媒体EE任务:假设每个新闻文档都有一组句子S = { s 1 , s 2 , s ∣ S ∣ } 和一组图像M = { m 1 , m 2 , … , m ∣ M ∣ } 。每句话可以进一步表示为s = { w 1 , w 2 , … } ,带有w j 作为j第个单词。我们进一步假设每个句子与一组实体T = { t 1 , t 2 , … } ,每个实体都是一个单独的唯一对象,指的是真实世界的对象(即,一个人、一个组织、一个设施和一个地点)。鉴于此,我们可以通过建立以下两个子任务来描述多媒体EE问题:
事件提及提取。给定一个多媒体新闻文档,事件提及提取的目的是提取一组事件提及:
e = { ( w , m ) , y e }
w 是最清楚地表达事件存在的单词(即事件触发词[1]),m 是与事件最匹配的图像,并且y e表示事件类型。当两者都w 和m 存在,指示文本触发词和视觉图像引用同一事件,该事件被称为多媒体事件。或者,如果仅有w或m 存在,则该事件被称为仅文本事件或仅图像事件。
事件论元抽取。事件论元提取的目的,给定已识别的事件e , 是找到一组论元(即参与者),每个论元在事件中扮演特定角色。与我们表示事件提及的方式相同,我们将事件论元表示为:
a = { ( t , o ) , y a }
t 表示识别句子中的特定实体,o 表示为图像中的边界框的视觉对象,以及y a 表示实体所扮演的角色。类似于事件提及提取的情况,t 和o 可以同时存在,也可以仅存在其中一个。
注意,没有用并行文本图像事件标记的大规模数据集,这使得直接训练多媒体EE模型变得困难。作为一种变通方法,与Li等人[16]类似,我们使用以下资源进行训练:1)ACE 2005[20],它只包含文本事件;2)imSitu[31],它只包括视觉事件(请注意,此数据集不提供论元的边界框);3)VOA Image Caption数据集[16],它包含并行图像字幕对(没有事件标注)。我们调整M2E2数据集[16]进行评估,其中包含245个标记有文本和视觉事件的文档。数据集的更详细统计数据见§5.1。
4、方法
图2描述了我们方法的高级概述。特别是,我们首先引入了一个对比学习框架来学习图像、文本和事件本体(例如,事件类型和语义角色)的共享表示空间。然后,使用这个共享空间,我们进行文本和视觉EE,以将补充信息合并到其他模态中。最后,我们执行具有相似性度量的跨模态事件共同参考过程,以组合来自多个模态的事件。我们的方法的技术细节如下。
4.1 通过对比学习学习共享表征空间
我们方法的第一阶段是学习共享的表示空间,其中图像、文本和事件本体都具有统一的表示。为了实现这一点,我们使用对比学习[25]来鼓励匹配的图像文本对比不匹配的图像-文本对具有更高的分数,以便学习允许进一步跨模态匹配和推理的共享空间。
我们分三个步骤训练模型:1)使用CLIP设置进行初始化[25],其目的是直接利用普通图像字幕对的监督进行学习。2) 对VOA ImageCaption数据集进行预训练[16],该数据集旨在获取更多有关新闻文档的特定领域知识。3) 对imSitu数据集进行微调[31],该数据集旨在了解有关新闻事件的更多领域特定知识。鉴于imSitu数据集同时定义了活动动词和语义角色,我们设计了两种微调策略:1)联合训练策略,其中单个模型同时在活动动词和词义角色上进行训练;2)单独训练策略,两个独立模型分别在活动动词与语义角色上进行训练。§6.5对上述策略的消融进行了研究。
4.2 带有视觉线索的文本事件抽取
共享表示空间允许跨模态信息集成。我们首先介绍了使用视觉线索改进文本EE的方法,该方法包括三个步骤:图像融合表示学习、文本事件触发词提取和文本事件论元提取。
4.2.1 图像融合表征学习
给定一个新闻文档,表示为一组句子S 和图像M ,每个句子s = { w 1 , w 2 , … } ∈ S ,我们首先构造了一个基于BERT的编码器[8]来学习每个单词的上下文表示。假设表示为H s = { H 1 , , … , H ∣ s ∣ } . 然后,我们建议使用图像信息来增强表示,通过计算如下的集成图像表示:
4.2.2 文本触发词抽取
O i 是包含每个事件类型的概率的输出向量w i (即s 的第i个单词);w t 和B t 是要训练的模型参数。w i 的最终预测事件类型为O i 中索引值最高的事件类型.
4.2.3 文本事件论元抽取
对于事件论元提取,我们使用类似于事件触发词提取的方法,但使用以下计算来预测每个实体(而不是单词)的语义角色(而不是事件类型):
4.2.4 训练和优化
对于优化,我们使用交叉熵损失和Adam[13]以及默认的超参数。请注意,在训练和测试阶段之间存在差距——因为原始的ACE2005数据集缺少图像,所以学习图像融合表示很有挑战性。我们用一种弱监督的方法来解决这个问题:对于每个ACE 2005文档,我们列举每个句子,并从VOA Image Caption数据集中选择最多五个最匹配的图像,然后将其与句子一起用于学习。
4.3 带有文本线索的视觉EE
视觉EE的定义不同于文本EE:视觉事件提及提取旨在预测每个图像的事件类型(由活动动词[31]表示),而视觉论元提取旨在定位图像中与给定语义角色相对应的论元(由框表示)。我们对两个子任务采用统一的基于查询的策略,而不是使用基于分类的方法。
4.3.1 视觉事件提及抽取
给定表示为一组句子S SS和图像M MM的输入新闻文档m ∈ M 、 我们首先构造一个活动动词列表V = { v 1 , v 2 , … , v ∣ V ∣ } 在imSitu数据集[31]中定义。然后,对于每个动词,我们计算其与图像m 的相似度并将得分归一化为概率值。例如v i 和m 计算如下:
一种简单的方法是将分数定义为联合表示空间中动词和图像的余弦相似性,即让分数s c o r e ( v i , m ) = c o s ( T v i , I m ) 然而,这种策略忽视了文本信息,并可能助长诸如“snowing(下雪)”之类的错误模式,没有事件语义。作为一种解决方案,我们考虑到文本线索,并设计以下得分函数:
s c o r e ( v i , m ,S ) = λ cos ( T v i , I m ) + ( 1 − λ ) cos ( T v i , T S )
T S 是联合空间中所有句子表示的平均值;λ 是平衡图像相似性和文本相似性的权衡系数。这样,只有同时匹配图像和文本的动词才能获得高分。最后,为了获得图像的事件类型,我们考虑Top-K动词,并使用一种主要的投票方法将它们映射为imSitu事件类型(imSitu活动动词与M2E2事件类型之间的映射基于[16])。
4.3.2 视觉事件论元抽取
视觉事件论元提取比视觉事件提及提取更困难,因为我们应该:1)确定在图像中实现了哪个语义角色,2)使用框定位图像中的论元。
4.3.3 语义角色识别
为了确定哪个语义角色在图像中实现,我们将类似的方法应用于视觉事件提及提取,但使用一组预定义的语义角色,由R = { r 1 , r 2 , ⋅ ⋅ ⋅ , r ∣ R ∣ } (而不是活动动词)来计算相似度。因为语义角色识别发生在事件提及提取之后,所以我们还应该根据预测的事件类型过滤掉不相关的角色。文本线索也被合并以产生更准确的预测。
4.3.4 事件论元定位
对于预测集中的每个角色,我们应该在图像中找到一个框。然而,由于现有的训练数据集不包含论元框标注,我们无法直接训练模型来实现这一点。受最近对模型可解释性的研究[4]的启发,我们通过以下三个步骤定位语义角色的对象框:i)正向传递,其中我们使用角色和图像作为输入来计算其得分。ii)基于梯度的注意力整合,其中我们对注意力头部进行简单平均,以生成梯度增强注意力图A ‾ , 沿着向前通过程序:
hd枚举图像编码器中的每个注意力头,c 是模型的输出(即相似性分数),⊙ 表示Hadamard乘积。i)相关性图计算,其目的是将注意力图转换为相关性图。特别是,我们首先介绍四个相关性图:R t t , R i i , R t i , R i t 定义文本到文本、图像到图像、文本到图像和图像到文本相关性矩阵。然后1)对于自关注,我们对相关性图采用以下更新规则:
这可以被视为与自注意力计算过程一起向相关性图添加上下文。2) 对于双模型注意力,我们采用以下更新规则,对自注意力图实施标准化:
4.4 跨模态事件共指
最后,我们应该结合文本和视觉事件,以便进行跨模态事件共指。使用联合表示空间进行跨模态事件共指是简单而直接的:给定一个输入新闻文档,我们首先计算每个句子和图像之间的余弦相似度,通过链接它们,我们最终得到一个二分图,每个边连接一个句子和一个图像。然后,我们利用匈牙利算法[14]找到句子和图像之间的最佳匹配,这将任务表述为最大权重匹配问题。我们最终将最匹配的文本和视觉事件组合成一个事件集。在实践中,我们发现为每个图像迭代选择最佳匹配句子的贪婪算法很好地发挥作用。§6.4研究了跨模态事件共指的各种解决方案的影响。
5、实验设置
5.1 数据集
在我们的实验中,我们使用以下资源进行模型训练:1)ACE 2005[20],它用33个事件类型和36个语义角色标注文本事件,其包含123078个并行图像字幕对(注意,该数据集没有事件的标注)。为了进行评估,我们使用M2E2数据集[16],其中包含245个标记有并行文本和视觉事件的文档。M2E2事件模式与8种ACE类型和98种即时事件类型相一致,事件实例分为1105个纯文本事件、188个纯图像事件和385个多媒体事件。表1汇总了详细的数据统计。根据对EE[1,16,22,32,33]的大多数研究,我们使用precision(P)、recall(R)和F1 score(F1)作为评估指标。
6、实验结果
7、总结
在本文中,我们提出了一种新的多媒体EE方法,通过提出一个联合对比学习框架来连接文本和视觉模式。这通常是通过对文本图像对进行训练来实现的,我们证明,通过研究其他模态的互补性,可以使用该框架来促进每个模态的学习。我们的方法实现了最先进的性能,大大优于以前的方法。在未来,我们将努力实现更精确的论元框识别,并考虑多媒体EE的更多模式(如视频)。