论文标题:HGAT: Hierarchical Graph Attention Network for Fake News Detection
论文链接:https://arxiv.org/abs/2002.04397
论文来源:arXiv
一、概述
为了更有效地检测假新闻,有必要从不同的角度挖掘有意义的信息,而不是仅仅关注新闻内容。事实上,假新闻并不是以文章的形式独立存在的,网络社交媒体与新闻文章相关的新闻创作者(creators)和新闻主题(subjects)与文章共存。这些新闻创作者和新闻主题能够以一个更全面的视角描述新闻,以帮助我们能够更彻底地剔除假新闻。具体来说,对于新闻创作者,我们可以收集个人资料等补充知识。对于新闻主题,可以收集背景知识等相关信息来支持新闻检测。
新闻文章和其他相关部分可以建模为异构信息网络(heterogeneous information network,HIN)。HIN具有较强的表达丰富信息的能力,本文将假新闻检测问题描述为HIN中的节点分类问题。下图给出了一个面向新闻的异构信息网络(News-HIN)的示例:
News-HIN
基于HIN的假新闻检测问题的主要挑战在于以下3点:
①Hierarchy,异构网络中的表示学习是一个多层次的工作,因为节点内容的信息和模式(schema)的信息包含在不同的层次上;
②Heterogeneity,存在与新闻文章相关的各种类型的异构信息,统一学习HIN中的有效节点表示并不是一件容易的事情;
③Generalizability,为了保证所提出的模型对不同类型HIN的适用性,我们需要提出一个可扩展到各种学习设置的通用学习模型。
为了解决上述挑战,本文提出了HGAT来检测假新闻。HGAT包含两层attention机制,首先进行节点level的attention,将节点邻域内同一种类型的节点聚合成schema节点,然后进行schema-level的attention来聚合schema节点表示,最终使用学习到的表示进行假新闻检测。
二、概念
- 术语定义
- 问题定义
三、方法
图注意力网络GAT参考链接:图注意力网络
HGAT包括node-level和scheme-level两层attention,架构图如下:
HGAT
- Node-level attention
Node-level attention能够学习每个News Article的邻域内同一类型的节点的重要性并且聚合这些邻域节点表示成一个集成表示作为一个schema节点。Node-level attention的输入为节点的初始特征向量(文本采用TF-IDF编码)。因为News-HIN中存在多种类型的节点,因而初始节点特征向量属于不同维度的特征空间,因此需要使用对特征向量进行维度转换,这里对不同类型的节点的特征向量进行维度转换采用的是不同的转换矩阵。具体过程如下:
- Schema-level attention
通过node-level attention,我们将News Article节点的邻域聚合为几个schema节点。从本质上讲,它相当于将来自相同类型的邻域节点的信息融合到schema节点的表示中。接下来要做的是通过schema节点的表示来学习News Article节点的表示。不同的schema节点包含类型信息,这要求我们区分节点类型的重要性。这里我们采用schema-level attention来自动学习schema node的重要性,最终使用学习到的重要性权重来融合schema节点表示。
下图展示了两层attention的过程:
两层attention
- 损失函数
最后就是采用一个分类器来对每个News Article节点表示进行分类。损失函数采用交叉熵损失函数,二分类就是用binary的交叉熵损失。
整个HGAT的算法如下:
HGAT
四、实验
数据集采用PolitiFact数据集。对于新闻报道,PolitiFact在网站上提供了原始内容、事实核查结果和全面的事实核查报告。平台根据内容将它们分类为不同的主题和话题(也就是本文中的subject)。每篇文章的标注为{True, Mostly True, Half True, Mostly False, False, Pants on Fire!}之一,可以用来进行多分类以及二分类,本文进行了多分类和二分类实验。二分类时{True, Mostly True, Half True}作为一类,{Mostly False, False, Pants on Fire!}作为一类。数据集统计情况如下:
数据集
二分类实验结果:
二分类实验结果
多分类实验结果:
多分类实验结果
对比是否去除schema-level attention的结果(去除的方式是将schema-level attention的权重设置为):
消融实验