cs224w(图机器学习)2021冬季课程学习笔记20 Advanced Topics on GNNs

简介: 本章主要内容:本章首先介绍了在此之前学习的message passing系GNN模型的限制,然后介绍了position-aware GNN1 和 identity-aware GNN (IDGNN)2 来解决相应的问题。最后介绍了GNN模型的鲁棒性问题。

1. Advanced Topics on GNNs


  1. 我们首先可以回忆一下图神经网络:输入图结构数据,经神经网络,输出节点或更大的网络结构(如子图或图)的嵌入。

image.png


  1. 此外还可以回忆一下 general GNN framework 和 GNN training pipeline 的相关内容


2. Limitations of Graph Neural Networks


  1. 完美的GNN模型

在这里我们提出一个思想实验:完美的GNN应该做什么?

k层GNN基于K跳邻居结构嵌入一个节点,完美的GNN应该在邻居结构(无论多少跳)和节点嵌入之间建立单射函数。

image.png

因此,对于完美GNN,假设节点特征完全一样,所以节点嵌入的区别完全在于结构。在这种情况下,①有相同邻居结构的节点应该有相同的嵌入,②有不同邻居结构的节点应该有不同的嵌入。

image.png


  1. 现有GNN的不完美之处

即使是符合上述条件的“完美GNN”也不完美。


①即使有相同邻居结构的节点,我们也可能想对它们分配不同的嵌入,因为它们出现在图中的不同位置positions。这种任务就是position-aware tasks。

比如即使是完美GNN,在图示任务上也会失效(左图比较显然,就是左下角点和右上角点虽然有完全一样的邻居结构,但是由于其位置不同,我们仍然希望它们有不同的嵌入。右图我没搞懂,它节点标哪儿了我都没看到)

image.png


②在lecture 94 中,我们讨论了message passing系GNN的表现能力上限为WL test。所以举例来说,图中的 v 1  和 v 2在cycle length(就是节点所处环的节点数)上的结构差别就无法被捕获,因为虽然它们结构不同,但计算图是相同的:

image.png


  1. 本节lecture就要通过构建更有表现力的GNN模型来解决上述两个问题:

对①问题:通过图中节点的位置来生成节点嵌入,方法举例:position-aware GNNs1

对②问题:构建比WL test更有表现力的message passing系GNN,方法举例:identity-aware GNNs

image.png


  1. 我们希望不同的输入(节点、边或图)被标注为不同的标签。而嵌入是通过GNN计算图得到的,如图所示:

image.png


  1. 直接通过独热编码的方式来试图区分计算图是不行的,如图所示:

给每个节点以一个独热编码表示的唯一ID的话,我们就能区分不同的节点/边/图,计算图显然是会不同的(就算个别层出现相同的情况,因为节点不一样,所以后面几层、最终的整条计算树总是会不同的),所以可以实现。

问题是这样不scalable(需要 O ( N ) O(N)O(N) 维特征),也不inductive(显然无法泛化到新节点/新图上:这个很依赖于节点顺序,一换图就不行了)。

但是这种通过增加节点特征使得通过计算图可以更好地进行节点分类的思路是可行的。

image.png

image.png


3. Position-aware Graph Neural Networks


  1. 如图所示,图上有两种任务:一种是structure-aware task(节点因在图上的结构不同而有不同的标签),一种是position-aware task(节点因在图上的位置不同而有不同的标签)。真实任务往往结合了structure-aware和position-aware,所以我们需要能够同时解决这两种任务的方法。

image.png


  1. GNN往往对structure-aware tasks表现很好,如图所示,GNN可以通过不同的计算图来区分 v 1 和 v 2   这两个局部结构不同的节点。

image.png


  1. 但GNN对position-aware tasks表现较差,如图所示,因为结构对称性,v 1 和 v 2 会有相同的计算图,所以他们的嵌入也会相同。因此我们想要定义position-aware的深度学习方法来解决这一问题。

image.png


  1. anchor

解决方法就是使用anchor作为reference points:

如图所示,随机选取节点 s 1  作为anchor node,用对 s 1  的相对距离来表示 v 1和 v 2 ,这样两个节点就不同了(v 1  是1,v 2  是0)。

anchor node相当于坐标轴,可以用于定位图中的节点。

image.png


  1. anchors

如图所示随机选取 s 1 , s 2 ,作为anchor nodes,用相对它们的距离来表示节点。这样就可以更好地描述图中不同区域的节点位置。更多anchors相当于更多的坐标轴。

image.png


  1. anchor-sets

将anchor从一个节点泛化到一堆节点,定义某节点到一个anchor-set的距离是该节点距anchor-set中任一节点的最短距离(即到最短距离最短的节点的最短距离)。如图所示,s 3  这个大小为2的anchor-set可以区分 s 1  和 s 2 这两个anchor区分不了的 v1 和 v3 节点。

有时大的anchor-set能提供更精确的位置估计。而且这种方法还能保持anchor总数较小,要不然计算代价太高。

image.png


  1. 总结:节点的位置信息可以通过到随机选取anchor-sets的距离来编码,每一维对应一个anchor-set。

如图所示,每个节点都有了一个position encoding(图中的一行)。

具体在实践中,可以对anchor-set中的节点数指数级增长、同节点数的anchor-set数量指数级减小,如设置n个1个节点的anchor-set、n/2个2个节点的anchor-set……

image.png


  1. 如何使用position information(即上图中这个position encoding)


  • 简单方法:直接把position encoding当作增强的节点特征来用。这样做的实践效果很好。

这样做的问题在于,因为position encoding的每一维对应一个随机anchor,所以position encoding本身可以被随机打乱而不影响其实际意义,但在普通神经网络中如果打乱输入维度,输出肯定会发生变化。

我对这个问题的理解就是:它是permutation invariant的,但是普通神经网络不是。这个问题本来就是GNN比欧式数据难的原因之一,结果GNN里面又出了这个问题真是微妙啊。

  • 严谨方法:设计一个能保持position encoding的permutation invariant性质的特殊神经网络。

由于打乱输入特征维度只会打乱输出维度,因此具体维的数据不用改变。

然后就此处省略一万字让去看论文了。反正我还没看,以后有缘在看。如果读者您看懂了可以告诉我!

image.png

image.png


4. Identity-aware Graph Neural Networks


  1. GNN还有更多的失败案例:除了上述的position-aware tasks之外,GNN在structure-aware tasks上也是不完美的。以下展示节点、边、图三种层面上的GNN在structure-aware tasks上的失败案例,都是结构不同但计算图相同的情况:

image.png


  1. 节点级别的失败案例:处在节点数不同的环上

image.png


  1. 边级别的失败案例:如图中的边A和B,由于 v 1 和 v 2 计算图相同,因此A和B的嵌入也会相同:

image.png


  1. 图级别的失败案例:如图所示,每个图有8个节点,每个节点与另外的四个节点相连,左图与相邻节点和隔一个节点的节点相连,右图与相邻节点和隔两个节点的节点相连。这两个图是不同构的,但是它们的每个节点的嵌入都相同:WL test无法区分它们,因此GNN也无法区分它们。

image.png


  1. idea: inductive node coloring

核心思想:对我们想要嵌入的节点分配一个颜色(作为augmented identity),如图所示:

image.png


这个coloring是inductive的,与node ordering或identities7无关。如图所示,打乱 v 2 和 v 3 的顺序之后,计算图不变:

image.png

但其实这跟它本身的inductive有什么关系,我也没搞懂。


  1. inductive node coloring在各个级别上,都能帮助对应的图数据的计算图变得可区分。
  • node level

image.png

  • graph level

image.png


  • edge level:需要嵌入两个节点,我们选择其中一个节点进行上色

image.png


  1. 那么我们应该如何在GNN中应用node coloring呢?这样就提出了ID-GNN (Identity-aware GNN)

整体思路:像异质图中使用的heterogenous message passing那样。传统GNN在每一层上对所有节点应用相同的message/aggregation操作,而heterogenous message passing是对不同的节点应用不同的message passing操作,ID-GNN就是在不同coloring的节点上应用不同的message/aggregation操作。

RGCN相关知识可参考我之前写过的笔记cs224w(图机器学习)2021冬季课程学习笔记12 Knowledge Graph Embeddings_诸神缄默不语的博客-CSDN博客。

image.png

image.png

heterogenous massage passing可以通过在嵌入计算过程中应用不同的神经网络,使这种计算图结构相同、node coloring不同的节点得到不同的嵌入。

image.png


  1. GNN vs ID-GNN

ID-GNN可以计算一个节点所属环的节点数,而GNN不能。

如图所示,根据计算图中与根节点同色的节点所在层数,可以数出这个节点数。但这里我不理解的是这个cycle指的是什么,直接看来就是这一层与根节点同色的节点数,也可以明白是这个计算树绕回去的次数。用这个应该可以数节点所属环的节点数。但是这个也不能说是圈数?就我觉得这玩意有点奇怪,我觉得可能需要看原论文才能更深入了解这东西?

image.png


  1. simplified version: ID-GNN-Fast

根据上一条的直觉,我们可以设计一个简化版本ID-GNN-Fast:将identity information作为augmented node feature(这样就不用进行heterogenous message passing操作了)(我不知道heterogenous message passing是不是代价比较大啊,看起来既然需要这么做,那应该就是有这个原因吧)

我们就用每一层的cycle counts作为augmented node feature,这样就可以应用于任意GNN了。

image.png


  1. Identity-aware GNN

ID-GNN是一个对GNN框架通用的强大扩展,可以应用在任何message passing GNNs上(如GCN,GraphSAGE,GIN等),在节点/边/图级别的任务上都给出了一致的效果提升。

ID-GNN比别的GNN表现力更好,是第一个比1-WL test8 更有表现力的message passing GNN。

我们可以通过流行的GNN工具包(如PyG,DGL等)来应用ID-GNN。

image.png


5. Robustness of Graph Neural Networks


  1. 近年来,深度学习在各领域都体现出了令人印象深刻的表现效果,如在计算机视觉领域,深度卷积网络在ImageNet(图像分类任务)上达到了人类级别的效果。那么,这些模型可以应用于实践了吗?

image.png


  1. 对抗样本

深度卷积网络对对抗攻击很脆弱,如图所示,只需要几乎肉眼无法察觉的噪音扰动,就会对预测结果产生巨大的改变。在自然语言处理和音频处理领域也报道过类似的对抗样本。

image.png


图中论文:

熊猫配图的来源:Explaining and Harnessing Adversarial Examples

[Jia & Liang et al. EMNLP 2017] Adversarial Examples for Evaluating Reading Comprehension Systems

[Carlini et al. 2018] Audio Adversarial Examples: Targeted Attacks on Speech-to-Text


  1. 对抗样本的启示:

由于对抗样本的存在,深度学习模型部署到现实世界就不够可靠,对抗者可能会积极积极攻击深度学习模型,模型表现可能会比我们所期望的差很多。

深度学习往往不够鲁棒,事实上,使深度学习模型对对抗样本鲁棒仍然是个活跃的研究领域。

image.png


  1. GNNs的鲁棒性9

本节lecture将介绍GNN是否对对抗样本鲁棒。本节课介绍的基础是GNNs的广泛应用关乎于公开平台和经济利益,包括推荐系统、社交网络、搜索引擎等,对抗者有动机来操纵输入图和攻击GNN预测结果。

image.png


  1. 研究GNN鲁棒性的基础设置

任务:半监督学习节点分类任务

模型:GCN10

image.png


  1. 问题研究路径:
  • 描述几种现实世界中的adversarial attack possibilities11。
  • 我们再研究一下我们要攻击的GCN模型(了解对象)。
  • 我们将攻击问题用数学方法构建为优化问题。
  • 通过实验来检验GCN的预测结果对对抗攻击有多脆弱。

image.png

image.png

image.png

image.png

image.png

image.png

image.png


  1. 将对抗攻击构建为优化问题:

attacker的目标:最大化target node标签预测结果的改变程度

subject to 图上的改变很小(如果对图的改变过大,将很容易被检测到。成功的攻击应该在对图的改变“小到无法察觉”时改变target的预测结果)

如图所示,在图上做很小的改变(改变两个节点的特征),学习GCN模型后,预测标签就得到了改变:

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png


  1. 实验:对抗攻击

在文献引用网络(有2800个节点,8000条边)上用GCN模型运行半监督节点分类任务。在原图上重复运行5次,对target node属于各类的预测概率如图所示:

image.png


证明GCN模型可以很好地使原图上的target node被分到正确的类中。


在连接到target node上的5个边被修改(direct adversarial attack)后,GCN的预测结果如图所示:

image.png


可以看出其结果被改变了。


  1. 实验:attack comparison

经实验发现:

adversarial direct attack是最强的攻击,可以有效降低GCN的表现效果(与无攻击相比)。

random attack比对抗攻击弱很多。

indirect attack比direct attack更难。

实验结果如图所示,每个点代表一次攻击实验,classfication越低证明误分类越严重(即攻击效果越好):

671549caa7494f78a7070d7740d2cd60.png


  1. 总结
  • 我们研究了应用于半监督节点分类任务的GCN模型的adversarial robustness。
  • 我们考虑了对图结构数据的不同attack possibilities。
  • 我们用数学方法将对抗攻击构建为优化问题。
  • 我们实证地证明了GCN的预测效果可能会因对抗攻击而被严重损害。
  • GCN对对抗攻击不鲁棒,但对indirect attacks和随机噪音还是有一些鲁棒性的。

image.png

相关文章
|
6月前
|
机器学习/深度学习 供应链 算法
机器学习课程学习随笔
机器学习课程学习随笔
|
6月前
|
机器学习/深度学习 数据可视化 PyTorch
零基础入门语义分割-地表建筑物识别 Task5 模型训练与验证-学习笔记
零基础入门语义分割-地表建筑物识别 Task5 模型训练与验证-学习笔记
501 2
|
3月前
|
机器学习/深度学习 算法 Python
【绝技揭秘】Andrew Ng 机器学习课程第十周:解锁梯度下降的神秘力量,带你飞速征服数据山峰!
【8月更文挑战第16天】Andrew Ng 的机器学习课程是学习该领域的经典资源。第十周聚焦于优化梯度下降算法以提升效率。课程涵盖不同类型的梯度下降(批量、随机及小批量)及其应用场景,介绍如何选择合适的批量大小和学习率调整策略。还介绍了动量法、RMSProp 和 Adam 优化器等高级技巧,这些方法能有效加速收敛并改善模型性能。通过实践案例展示如何使用 Python 和 NumPy 实现小批量梯度下降。
41 1
|
5月前
|
机器学习/深度学习 搜索推荐 PyTorch
【机器学习】图神经网络:深度解析图神经网络的基本构成和原理以及关键技术
【机器学习】图神经网络:深度解析图神经网络的基本构成和原理以及关键技术
1150 2
|
6月前
|
机器学习/深度学习 监控 算法
LabVIEW使用机器学习分类模型探索基于技能课程的学习
LabVIEW使用机器学习分类模型探索基于技能课程的学习
52 1
|
6月前
|
机器学习/深度学习 算法 图计算
图机器学习入门:基本概念介绍
图机器学习是机器学习的分支,专注于处理图形结构数据,其中节点代表实体,边表示实体间关系。本文介绍了图的基本概念,如无向图与有向图,以及图的性质,如节点度、邻接矩阵。此外,还讨论了加权图、自循环、多重图、双部图、异构图、平面图和循环图。图在描述数据关系和特征方面具有灵活性,为机器学习算法提供了丰富的结构信息。
147 0
|
6月前
|
机器学习/深度学习 人工智能 算法
机器学习的魔法(一)从零开始理解吴恩达的精炼笔记
机器学习的魔法(一)从零开始理解吴恩达的精炼笔记
|
6月前
|
机器学习/深度学习 数据可视化 算法
【学习打卡04】可解释机器学习笔记之Grad-CAM
【学习打卡04】可解释机器学习笔记之Grad-CAM
|
6月前
|
机器学习/深度学习
Coursera 吴恩达Machine Learning(机器学习)课程 |第五周测验答案(仅供参考)
Coursera 吴恩达Machine Learning(机器学习)课程 |第五周测验答案(仅供参考)
|
6月前
|
机器学习/深度学习 人工智能 文字识别
【学习打卡03】可解释机器学习笔记之CAM类激活热力图
【学习打卡03】可解释机器学习笔记之CAM类激活热力图