EANN:多模态假新闻检测的事件对抗神经网络

简介: EANN:多模态假新闻检测的事件对抗神经网络

论文标题:EANN: Event Adversarial Neural Networks for Multi-Modal Fake News Detection


论文链接:https://dl.acm.org/doi/abs/10.1145/3219819.3219903


论文来源:KDD 2018


一、概述


对于假新闻检测任务,现有方法仍然无法对新出现的、时效性强的假新闻做出有效检测。事实上现有方法容易学习到针对特定事件的特征,然而这些特征不一定会出现在其他事件中。这种特定于事件的特征虽然能够帮助对已验证事件的帖子进行检测,但会损害对新出现事件的检测精度。因此本文所提出的方法致力于学习事件之间能够共享的特征来进行假新闻的检测,目标就是移除不可迁移的特定于事件的特征,保留事件之间可共享的特征。


要想能够移除特定于事件的特征,首先就要去识别。对于事件之间不可共享的特定于事件的特征,可以通过测量对应不同事件的帖子之间的差异来检测。因此,识别特定事件的特征相当于测量不同事件中学习到的特征之间的差异。


本文提出的EANN(Event Adversarial Neural Networks)模型就是用来应对上述挑战,受对抗网络思想的启发,我们引入event discriminator来预测训练阶段的事件辅助标签(表明属于哪个事件的标签),并利用相应的损失来估计不同事件之间特征表示的差异。这个损失越大,不同事件的特征差异就越小。另外由于假新闻帖子通常包含文本和图片两种内容,因此EANN的特征提取器是多模态的。总体来说,EANN包括三个结构:multi-modal feature extractor,fake news detector,event discriminator。


feature extractor和fake news detector相互配合来完成假新闻识别任务,同时feature extractor试图“欺骗”event discriminator来学习事件不变性特征。另外,EANN是一个通用的框架,其中的multi-modal feature extractor可以采用各种不同的网络架构。


二、方法


本文采用的模型架构基本上沿用这篇论文所提出的架构:反向传播的无监督域自适应方法


  1. 框架


下图展示了EANN的大体框架设计:


0349NKG2@)`0S40_E5LF{KM.png

                                            EANN


由于帖子包括文本和图像信息,因此multi-modal feature extractor包括文本和视觉两个特征提取器,然后将它们学习到的特征拼接。fake news detector和event discriminator都连接在multi-modal feature extractor的后面,使用其学习到的特征来作为输入。


  1. Multi-Modal Feature Extractor


  • Textual Feature Extractor


)DV_2)S@)DOK5D0T{95Z06H.png

5)MWDNI(CG2KNZF0$VLK0N5.png

E@YZA{{R(MYIXUTN[)N~[69.png



这样的fake news detector如果不加限制只能够学习到特定于事件的特征,因此需要 event discriminator来剔除这些特征以捕获具备事件不变性的特征。


  1. Event Discriminator


X5_WTS4B]QX1]WTG5B$TGLM.png


  1. 模型的训练


上述三个部分的最终的loss可以定义为:


]{5YLB9UG8UQ%QML5PG_KH2.png

总结来说,整个EANN的训练过程如下:


@D71JG)L$G_4R{VR7G0D~]B.png

                                             训练


三、实验


在Twitter和Weibo数据集上进行了实验,数据集统计结果如下:


}J`V12KTKV}7MMWTU%J83DQ.png

                                      数据集统计


对比了多个baseline与EANN的实验结果:


QP1P[`I3J87LH(@F86N8Y77.png

                                                    实验

相关文章
|
3月前
|
运维 供应链 安全
构建网络环境的铜墙铁壁:从微软蓝屏事件反思系统安全与稳定性
【7月更文第22天】近期,一起由软件更新引发的“微软蓝屏”事件震撼全球,凸显了现代IT基础设施在面对意外挑战时的脆弱性。此事件不仅影响了数百万台设备,还波及航空、医疗、传媒等多个关键领域,造成了难以估量的经济损失和社会影响。面对这样的挑战,如何构建更为稳固和安全的网络环境,成为了全球IT行业共同面临的紧迫任务。
79 3
|
13天前
|
机器学习/深度学习 数据采集 网络安全
使用Python实现深度学习模型:智能网络安全威胁检测
使用Python实现深度学习模型:智能网络安全威胁检测
58 5
|
20天前
|
机器学习/深度学习 安全 网络安全
利用机器学习优化网络安全威胁检测
【9月更文挑战第20天】在数字时代,网络安全成为企业和个人面临的重大挑战。传统的安全措施往往无法有效应对日益复杂的网络攻击手段。本文将探讨如何通过机器学习技术来提升威胁检测的效率和准确性,旨在为读者提供一种创新的视角,以理解和实施机器学习在网络安全中的应用,从而更好地保护数据和系统免受侵害。
|
2月前
|
计算机视觉
在yolov5项目中如何使用自带摄像机不用网络摄像机进行实时检测?
这篇文章讨论了在yolov5项目中,如何避免使用网络摄像机而改用自带的本地摄像机进行实时目标检测,并提供了解决摄像头打开错误的具体步骤和代码示例。
在yolov5项目中如何使用自带摄像机不用网络摄像机进行实时检测?
|
2月前
|
机器学习/深度学习 监控 算法
基于深度学习网络的人员行为视频检测系统matlab仿真,带GUI界面
本仿真展示了基于GoogLeNet的人员行为检测系统在Matlab 2022a上的实现效果,无水印。GoogLeNet采用创新的Inception模块,高效地提取视频中人员行为特征并进行分类。核心程序循环读取视频帧,每十帧执行一次分类,最终输出最频繁的行为类别如“乐队”、“乒乓球”等。此技术适用于智能监控等多个领域。
56 4
|
2月前
|
机器学习/深度学习 数据采集 算法
基于深度学习网络的USB摄像头实时视频采集与火焰检测matlab仿真
本项目使用MATLAB2022a实现基于YOLOv2的火焰检测系统。通过USB摄像头捕捉火焰视频,系统实时识别并标出火焰位置。核心流程包括:视频采集、火焰检测及数据预处理(图像标准化与增强)。YOLOv2模型经特定火焰数据集训练,能快速准确地识别火焰。系统含详细中文注释与操作指南,助力快速上手。
|
2月前
|
机器学习/深度学习 运维 监控
|
2月前
|
UED 存储 数据管理
深度解析 Uno Platform 离线状态处理技巧:从网络检测到本地存储同步,全方位提升跨平台应用在无网环境下的用户体验与数据管理策略
【8月更文挑战第31天】处理离线状态下的用户体验是现代应用开发的关键。本文通过在线笔记应用案例,介绍如何使用 Uno Platform 优雅地应对离线状态。首先,利用 `NetworkInformation` 类检测网络状态;其次,使用 SQLite 实现离线存储;然后,在网络恢复时同步数据;最后,通过 UI 反馈提升用户体验。
55 0
|
2月前
|
JSON 监控 安全
在Linux中,如何使用Suricata进行实时网络威胁检测?
在Linux中,如何使用Suricata进行实时网络威胁检测?
|
3月前
|
计算机视觉 网络架构
【YOLOv8改进 - 卷积Conv】DWRSeg:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
YOLO目标检测专栏探讨了YOLO的创新改进,如多尺度特征提取的DWRSeg网络。该网络通过区域残差化和语义残差化提升效率,使用DWR和SIR模块优化高层和低层特征。DWRSeg在Cityscapes和CamVid数据集上表现优秀,速度与准确性兼备。论文和代码已公开。核心代码展示了一个包含DWR模块的卷积层。更多配置详情见相关链接。