cs224w(图机器学习)2021冬季课程学习笔记7 Graph Neural Networks 1: GNN Model

简介: 本章主要内容:介绍深度学习基础。介绍GNN思想:聚合邻居信息。每一层都产生一种节点嵌入。将上一层的邻居信息聚合起来,连接本节点上一层信息,产生新的节点嵌入。第一层节点嵌入就是节点特征。GCN:用平均值作为聚合函数。GraphSAGE:用各种聚合函数。

1. Graph Neural Networks 1: GNN Model


  1. 回忆一下节点嵌入1任务。其目的在于将节点映射到d维向量,使得在图中相似的节点在向量域中也相似。

我们已经学习了 “Shallow” Encoding 的方法来进行映射过程,也就是使用一个大矩阵直接储存每个节点的表示向量,通过矩阵与向量乘法来实现嵌入过程。

这种方法的缺陷在于:

image.png

image.png

image.png


  1. image.png

image.png


  1. 一个GNN网络的结构如图:

image.png


  1. 通过网络可以解决的任务有:
  • 节点分类:预测节点的标签
  • 链接预测:预测两点是否相连
  • 社区发现:识别密集链接的节点簇
  • 网络相似性:度量图/子图间的相似性

image.png


  1. 传统机器学习难以应用在图结构上。具体原因在Lecture 中已经讲过,我也撰写过相应笔记,不再赘述。


2. Basics of Deep Learning


image.png

image.png

image.png

image.png

image.png

image.png

image.png


  1. 随机梯度下降stochastic gradient descent (SGD)

每一次梯度下降都需要计算所有数据集上的梯度,耗时太久,因此我们使用SGD的方法,将数据分成多个minibatch,每次用一个minibatch来计算梯度。

image.png

  1. minibatch SGD

SGD是梯度的无偏估计,但不保证收敛,所以一般需要调整学习率。

对SGD的改进优化器:Adam,Adagrad,Adadelta,RMSprop……等

术语:

image.png

image.png

image.png

image.png

image.png

image.png

image.pngimage.png

image.png

image.png

image.png

image.png



  1. 总结

image.png


3. Deep Learning for Graphs


  1. 本节内容:
  • local network neighborhoods

    聚合策略

    计算图

  • 叠层

     模型、参数、训练

     如何学习?

     无监督和有监督学习举例

image.png

image.png


  1. 我们可能很直接地想到,将邻接矩阵和特征合并在一起应用在深度神经网络上(如图,直接一个节点的邻接矩阵+特征合起来作为一个观测)。这种方法的问题在于:
  • 需要 O(|V|) 的参数
  • 不适用于不同大小的图
  • 对节点顺序敏感(我们需要一个即使改变了节点顺序,结果也不会变的模型)

image.png


  1. Idea: 将网格上的卷积神经网络泛化到图上,并应用到节点特征数据

image.png


  1. 图上无法定义固定的locality或滑动窗口,而且图是permutation invariant8的(节点顺序不固定)

image.png

image.png

image.png


  1. Graph Convolutional Networks

通过节点邻居定义其计算图,传播并转换信息,计算出节点表示(可以说是用邻居信息来表示一个节点)

image.png


  1. 核心思想:通过聚合邻居来生成节点嵌入

image.png

直觉:通过神经网络聚合邻居信息

image.png

直觉:通过节点邻居定义计算图(它的邻居是子节点,子节点的邻居又是子节点们的子节点……)

image.png


  1. 深度模型就是有很多层。

节点在每一层都有不同的表示向量,每一层节点嵌入是邻居上一层节点嵌入再加上它自己(相当于添加了自环)的聚合。

第0层是节点特征,第k层是节点通过聚合k hop邻居所形成的表示向量。

在这里就没有收敛的概念了,直接选择跑有限步(k)层。


  1. 邻居信息聚合neighborhood aggregation

不同聚合方法的区别就在于如何跨层聚合邻居节点信息(这是什么废话)。neighborhood aggregation方法必须要order invariant或者说permutation invariant8。

基础方法:从邻居获取信息求平均,再应用神经网络

这种deep encoder的数学公式:


  1. 如何训练模型:需要定义节点嵌入上的损失函数


  1. image.png


  1. 矩阵形式

很多种聚合方式都可以表示为(稀疏)矩阵操作的形式,如这个基础方法可以表示成图中这种形式:

我自己写了个求解过程(因为线性代数比较差所以没法直接看出来怎么算的,得一点点推)

补充:向量点积/矩阵乘法就是逐元素相乘然后累加,对邻接矩阵来说相当于对存在边的元素累加

对整个公式的矩阵化也可以实现:

这样就可以应用有效的稀疏矩阵操作(这部分我不了解,还没看)。

同时,也要注意,当aggregation函数过度复杂时,GNN可能无法被表示成矩阵形式。


(W和B要转置后放到右边,应该是因为矩阵尺寸的方向问题?(上一层嵌入维度×下一层嵌入维度))


  1. 如何训练GNN

image.png


  1. 模型设计:overview
  • 定义邻居聚合函数
  • 定义节点嵌入上的损失函数
  • 在节点集合(如计算图的batch)上做训练
  • 训练后的模型可以应用在训练过与没有训练过的节点上


  1. inductive  capability

因为聚合邻居的参数在所有节点之间共享,所以训练好的模型可以应用在没见过的节点/图上。比如动态图就有新增节点的情况。

模型参数数量是亚线性sublinear于 ∣ V ∣ 的(仅取决于嵌入维度和特征维度)(矩阵尺寸就是下一层嵌入维度×上一层嵌入维度,第0层嵌入维度就是特征维度嘛)。


  1. 总结

通过聚合邻居信息产生节点嵌入,本节阐述了这一总思想下的一个基本变体。具体GNN方法的区别在于信息如何跨层聚合。

接下来讲GraphSAGE。


4. Graph Convolutional Networks and GraphSAGE


image.png


  1. GCN vs. GraphSAGE

核心思想:基于local neighborhoods产生节点嵌入,用神经网络聚合邻居信息

GCN:邻居信息求平均,叠网络层

GraphSAGE:泛化neighborhood aggregation所采用的函数


5. 总结


本节课中介绍了:


  1. 神经网络基础:损失函数loss,优化optimization,梯度gradient,随机梯度下降SGD,非线性non-linearity,多层感知器MLP
  2. 图深度学习思想
  • 多层嵌入转换
  • 每一层都用上一层的嵌入作为输入
  • 聚合邻居和本身节点
  1. GCN Graph Convolutional Network:用求平均的方式做聚合,可以用矩阵形式来表示
  2. GraphSAGE:更有弹性的聚合函数


相关文章
|
7月前
|
机器学习/深度学习 数据可视化 PyTorch
零基础入门语义分割-地表建筑物识别 Task5 模型训练与验证-学习笔记
零基础入门语义分割-地表建筑物识别 Task5 模型训练与验证-学习笔记
509 2
|
6月前
|
机器学习/深度学习 搜索推荐 PyTorch
【机器学习】图神经网络:深度解析图神经网络的基本构成和原理以及关键技术
【机器学习】图神经网络:深度解析图神经网络的基本构成和原理以及关键技术
1347 2
|
7月前
|
机器学习/深度学习 算法 图计算
图机器学习入门:基本概念介绍
图机器学习是机器学习的分支,专注于处理图形结构数据,其中节点代表实体,边表示实体间关系。本文介绍了图的基本概念,如无向图与有向图,以及图的性质,如节点度、邻接矩阵。此外,还讨论了加权图、自循环、多重图、双部图、异构图、平面图和循环图。图在描述数据关系和特征方面具有灵活性,为机器学习算法提供了丰富的结构信息。
184 0
|
7月前
|
机器学习/深度学习 人工智能 算法
机器学习的魔法(一)从零开始理解吴恩达的精炼笔记
机器学习的魔法(一)从零开始理解吴恩达的精炼笔记
|
7月前
|
机器学习/深度学习 数据可视化 算法
【学习打卡04】可解释机器学习笔记之Grad-CAM
【学习打卡04】可解释机器学习笔记之Grad-CAM
|
7月前
|
机器学习/深度学习 人工智能 文字识别
【学习打卡03】可解释机器学习笔记之CAM类激活热力图
【学习打卡03】可解释机器学习笔记之CAM类激活热力图
|
7月前
|
机器学习/深度学习 存储 数据可视化
【学习打卡02】可解释机器学习笔记之ZFNet
【学习打卡02】可解释机器学习笔记之ZFNet
|
28天前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
90 4
|
6天前
|
算法
PAI下面的gbdt、xgboost、ps-smart 算法如何优化?
设置gbdt 、xgboost等算法的样本和特征的采样率
22 2
|
24天前
|
机器学习/深度学习 算法 数据挖掘
C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出
本文探讨了C语言在机器学习中的应用及其重要性。C语言以其高效性、灵活性和可移植性,适合开发高性能的机器学习算法,尤其在底层算法实现、嵌入式系统和高性能计算中表现突出。文章还介绍了C语言在知名机器学习库中的作用,以及与Python等语言结合使用的案例,展望了其未来发展的挑战与机遇。
39 1