论文标题:EANN: Event Adversarial Neural Networks for Multi-Modal Fake News Detection
论文链接:https://dl.acm.org/doi/abs/10.1145/3219819.3219903
论文来源:KDD 2018
一、概述
对于假新闻检测任务,现有方法仍然无法对新出现的、时效性强的假新闻做出有效检测。事实上现有方法容易学习到针对特定事件的特征,然而这些特征不一定会出现在其他事件中。这种特定于事件的特征虽然能够帮助对已验证事件的帖子进行检测,但会损害对新出现事件的检测精度。因此本文所提出的方法致力于学习事件之间能够共享的特征来进行假新闻的检测,目标就是移除不可迁移的特定于事件的特征,保留事件之间可共享的特征。
要想能够移除特定于事件的特征,首先就要去识别。对于事件之间不可共享的特定于事件的特征,可以通过测量对应不同事件的帖子之间的差异来检测。因此,识别特定事件的特征相当于测量不同事件中学习到的特征之间的差异。
本文提出的EANN(Event Adversarial Neural Networks)模型就是用来应对上述挑战,受对抗网络思想的启发,我们引入event discriminator来预测训练阶段的事件辅助标签(表明属于哪个事件的标签),并利用相应的损失来估计不同事件之间特征表示的差异。这个损失越大,不同事件的特征差异就越小。另外由于假新闻帖子通常包含文本和图片两种内容,因此EANN的特征提取器是多模态的。总体来说,EANN包括三个结构:multi-modal feature extractor,fake news detector,event discriminator。
feature extractor和fake news detector相互配合来完成假新闻识别任务,同时feature extractor试图“欺骗”event discriminator来学习事件不变性特征。另外,EANN是一个通用的框架,其中的multi-modal feature extractor可以采用各种不同的网络架构。
二、方法
本文采用的模型架构基本上沿用这篇论文所提出的架构:反向传播的无监督域自适应方法。
- 框架
下图展示了EANN的大体框架设计:
EANN
由于帖子包括文本和图像信息,因此multi-modal feature extractor包括文本和视觉两个特征提取器,然后将它们学习到的特征拼接。fake news detector和event discriminator都连接在multi-modal feature extractor的后面,使用其学习到的特征来作为输入。
- Multi-Modal Feature Extractor
- Textual Feature Extractor
这样的fake news detector如果不加限制只能够学习到特定于事件的特征,因此需要 event discriminator来剔除这些特征以捕获具备事件不变性的特征。
- Event Discriminator
- 模型的训练
上述三个部分的最终的loss可以定义为:
总结来说,整个EANN的训练过程如下:
训练
三、实验
在Twitter和Weibo数据集上进行了实验,数据集统计结果如下:
数据集统计
对比了多个baseline与EANN的实验结果:
实验