A Thorough Examination of CNN/Daily Mail Reading Comprehension

简介:

本篇是reading comprehension系列的第三篇,文章于2016年6月9号submit在arxiv上,比之前介绍的Gated-Attention Readers for Text Comprehension更晚地出现,但尴尬的是本文的模型结果不如GA Reader。6月7号submit的一篇Iterative Alternating Neural Attention for Machine Reading,用了和GA非常类似的方法,得到了稍微差一点的结果。确实最近在arxiv上常常可以刷出reading comprehension的paper,可以看得出这个领域当前多么地火热。同时火热的还有dialogue generation任务,今天凌晨的wwdc2016大会中,苹果宣布打造更加智能的siri,几大科技巨头纷纷表示要将聊天机器人作为智能的未来,由此可见与其相关的研究将会越来越热。本文的作者是来自斯坦福大学的博士生Danqi Chen,本科毕业于清华的姚班。

虽然本文并没有比GA模型有更好的效果,但作为了解整个Reading Comprehension研究的发展以及模型的思路还是很有意义的。本文最大的贡献在于提出了一种基于人工特征的分类器模型和一个改进版的端到端模型(这里是基于Teaching Machines to Read and Comprehend的Attentive Reader模型)。

第一个模型,是典型的人工特征模型,通过提取了八个特征构建特征空间,通过使得正确答案entity比其他entity获得更高的得分来训练得到模型参数。包含的特征有:该entity是否出现在原文中,该entity是否出现在问题中,出现过几次,第一次出现的位置等等八个特征。

第二个模型,基本思路与Attentive Reader接近。看下图:

这里只介绍不同的地方:

1、在计算query和document的注意力权重时,没有采用非线性的tanh,而是采用了bilinear。

2、得到注意力权重之后,计算context的输出,然后直接用输出进行分类预测,而Attentive Reader是用输出与query又做了一次非线性处理之后才预测的。

3、词汇表中只包括entity,而不是所有的单词。

模型上的改进只有第一点算是吧,后两点只是做了一些简单的优化。

虽然模型简单了,但效果却比Attentive Reader好很多,提升了约5%的效果,我们不管其模型有没有什么亮点,这些简化处理反而得到非常好的效果,这一点很引人深思。

结果这部分,作者分析了八个特征分别对模型结果的影响,其中影响最大的是n-gram match(entity和placeholder是否有相似的上下文),其次是entity出现的频率,具体见下表:


端到端模型比Attentive Reader效果好很多,但和最近的GA来比还是差了很多。看过本文之后,只有一个疑问,简化后的模型为什么比稍微复杂一点的模型好那么多呢?

最后作者总结了下Reading Comprehension任务中常用的数据集:

1、CNN/Daily Mail

2、MCTest

3、Children Book Test(CBT)

4、bAbI

本周末计划将本周看过的几篇reading comprehension写成一篇综述,好好做一次系统地对比和总结。敬请期待。



来源:paperweekly


原文链接

相关文章
|
3月前
|
机器学习/深度学习 存储 开发框架
【博士每天一篇文献-算法】NICE Neurogenesis Inspired Contextual Encoding for Replay-free Class Incremental Learn
NICE(Neurogenesis Inspired Contextual Encoding)是一种新型深度神经网络架构,旨在通过模拟生物神经系统的成熟过程来解决类别增量学习中的灾难性遗忘问题,无需重放旧样本即可实现有效的增量学习。
49 5
|
机器学习/深度学习 自然语言处理 算法
TASLP21-Reinforcement Learning-based Dialogue Guided Event Extraction to Exploit Argument Relations
事件抽取是自然语言处理的一项基本任务。找到事件论元(如事件参与者)的角色对于事件抽取至关重要。
98 0
|
机器学习/深度学习 自然语言处理 算法
RCEE: Event Extraction as Machine Reading Comprehension 论文解读
事件提取(Event extraction, EE)是一项重要的信息提取任务,旨在提取文本中的事件信息。以前的EE方法通常将其建模为分类任务,这些任务需要大量数据,并且存在数据稀缺问题。在本文中,我们提出了一种新的EE学习范式,将其明确地转换为机器阅读理解问题(MRC)。
220 0
|
自然语言处理 Java 计算机视觉
ACL2023 - AMPERE: AMR-Aware Prefix for Generation-Based Event Argument Extraction Model
事件论元抽取(EAE)识别给定事件的事件论元及其特定角色。最近在基于生成的EAE模型方面取得的进展显示出了与基于分类的模型相比的良好性能和可推广性
179 0
|
机器学习/深度学习 自然语言处理 搜索推荐
TSAR: A Two-Stream AMR-enhanced Model for Document-level Event Argument Extraction论文解读
以往的研究大多致力于从单个句子中抽取事件,而文档级别的事件抽取仍未得到充分的研究。在本文中,我们专注于从整个文档中抽取事件论元
198 0
|
自然语言处理
【论文速递】ACL 2022 - Prompt for Extraction? PAIE: Prompting Argument Interaction for Event Argument Extr
在本文中,我们提出了一个既有效又高效的模型PAIE,用于句子级和文档级的事件论元抽取(EAE),即使在缺乏训练数据的情况下也能很好地泛化。一方面,PAIE利用抽取目标的提示调优,以充分利用预训练语言模型(PLMs)的优势。
83 0
|
机器学习/深度学习 数据挖掘
ACL2023 - An AMR-based Link Prediction Approach for Document-level Event Argument Extraction
最近的工作引入了用于文档级事件论元提取(文档级EAE)的抽象语义表示(AMR),因为AMR提供了对复杂语义结构的有用解释,并有助于捕获长距离依赖关系
189 0
|
存储 移动开发 自然语言处理
Document-Level event Extraction via human-like reading process 论文解读
文档级事件抽取(DEE)特别困难,因为它提出了两个挑战:论元分散和多事件。第一个挑战意味着一个事件记录的论元可能存在于文档中的不同句子中
92 0
|
机器学习/深度学习 异构计算 索引
PyG学习笔记2-CREATING MESSAGE PASSING NETWORKS
PyG学习笔记2-CREATING MESSAGE PASSING NETWORKS
343 0
PyG学习笔记2-CREATING MESSAGE PASSING NETWORKS
|
自然语言处理
Reading the Manual: Event Extraction as Definition Comprehension, EMNLP 2020
Reading the Manual: Event Extraction as Definition Comprehension, EMNLP 2020
88 0
Reading the Manual: Event Extraction as Definition Comprehension, EMNLP 2020