GraphSAGE:大型图的归纳式表示学习

简介: GraphSAGE:大型图的归纳式表示学习

论文标题:Inductive Representation Learning on Large Graphs


论文链接:https://arxiv.org/abs/1706.02216


论文来源:NIPS 2017


一、概述


图节点的低维向量embedding对于一些图分析任务是非常有用的,节点embedding技术的基本思想是使用降维技术来蒸馏节点的邻域信息到一个稠密向量embedding,这些embedding可以用在一些下游任务上比如节点分类、聚类等。


然而,以前的工作都集中在从单个固定的图中学习节点embedding(直推式的方法,transductive),而许多现实世界的应用程序都需要为未见的节点全新的(子)图节点快速生成节点的embedding。这种归纳(inductive)能力对于高吞吐量的生产机器学习系统是至关重要的,这些系统运行在不断演化的图上,并不断遇到未见节点(例如Reddit上的帖子、Youtube上的用户和视频)。一种生成节点embedding的归纳方法也有助于在具有相同特征形式的图之间进行泛化:例如,一个人可以在一个模型生物的蛋白质-蛋白质相互作用图上训练一个embedding生成器,然后很容易地使用训练的模型生成从新生物中收集的数据的节点embedding。


这种归纳式的方法相较于直推式的方法是更加困难的,因为泛化到未见节点需要对齐(align)新观察到的子图到算法已经优化过的图上。这叫要求归纳式的算法必须学习识别节点邻域的结构特性,这既包括节点在图中的局部(local)角色以及它的全局(global)位置。


大多数现有方法是直推式的,也就是只能应用在单个固定的图上,大多数这类方法采用基于矩阵分解的策略,这就导致在面对新的节点或新的图时需要重新进行矩阵的分解操作,计算上是昂贵的。另外一些图卷积网络(GCN)的方法也是直推式的,不过在本文中会将这一类方法拓展成归纳式的,并且本文提出了一个框架,该框架将GCN方法推广到使用可训练的聚合函数(而非简单的卷积)。


本文提出的框架,命名为 GraphSAGE(SAmple and aggreGatE)。与基于矩阵分解的embedding方法不同,我们利用节点特征(例如文本属性、节点概要信息、节点度)来学习一个可推广到未见节点的embedding函数。通过在学习算法中引入节点特征,我们同时学习了每个节点的邻域拓扑结构以及邻域节点特征的分布情况。


GraphSAGE的思路是训练一系列聚合函数来从节点的邻域聚合邻域节点的特征信息,不同的聚合函数对应不同的hops(也就是与当前节点的距离),该过程如下图所示:


%Z_HVCZEMMCWK_)0Y8QWY@W.png

                                              GraphSAGE


在测试或者推断时,我们使用学习到的聚合函数来为未见节点来生成其embedding向量。另外,本文为GraphSAGE设计了一种无监督的loss,同时也可以使用有监督的方式来训练GraphSAGE。


二、方法


  1. embedding生成(前向传播)算法


NB6BH`5X1FTQN9KE51E7G%2.png

                       embedding生成(前向传播)算法


BP}9MWF~2%}[PU@62S$%6)W.png


注意这里每一步都会聚合邻域信息到当前节点,也就是说,第一次迭代当前节点会接受到1阶邻域的信息,第二次迭代当前节点就会接受到2阶邻域的信息,依次类推,随着迭代的继续,当前节点会接触到距离自己越来越远的节点的信息。另外,这里的聚合函数可以采用多种类型,后续会介绍本文所采用的几种聚合函数。


_%36H15U49N1]__T{27UVL8.png


  1. embedding生成(前向传播)算法的minibatch版本


minibatch版本解决的是对于一些给定的节点而非整张图,如何计算这些节点的embedding。思想是首先采样需要的所有节点,然后再运行上述算法的循环。具体过程如下:


}BP4_7[8BG%TD8IGSIO}CBO.png

                                       minibatch版本


  1. GraphSAGE的参数学习


GraphSAGE可以采用无监督或者有监督的方式进行参数的学习。对于无监督的方式,我们希望采用邻近节点有相似的表示,而距离较远的节点的表示能够是不同的,因而设计了以下损失函数:


CY[K1E0CAHT[KT$Q}K`A3NB.png

                                                   负采样


  1. 聚合函数


由于节点的邻域是没有顺序的,因而对聚合函数的一个要求就是它必须应用在向量的无序集合上,也就是说聚合函数必须具有对称属性(与输入的排列顺序无关)。接下来将介绍本文使用的3种聚合函数。


  • 平均聚合函数


D@G~UPU%HBQ]8V`SHZPE2W7.png


因此这个聚合函数也可以叫做卷积聚合函数。不过在这个聚合函数里没有执行拼接操作,这种拼接操作可以看做是网络的不同层之间的“跳跃连接”(残差连接),可以显著提高性能。


  • LSTM聚合函数


相比于平均的方式,采用LSTM作为聚合函数可以使模型具有更大的表达能力,不过LSTM并没有对称属性,我们通过将LSTM应用于随机排列的邻域节点集合上来使它能够应用于无序集合。


  • Pooling聚合函数


这种聚合函数既是对称的也是可训练的,在这种pooling方法中,每个邻域节点向量被独立输入到一个全连接网络中,然后应用一个max-pooling操作:


G[PWI86FT]AZZ%E{`WQ5U[8.png


这里的全连接网络可以是任意深层多层感知机,不过本文只关注单层架构。通过对每个计算特征应用max-pooling,该模型有效地捕获了邻域集的不同方面特征。事实上任何对称函数都能替换max-pooling(比如平均),不过对比平均与max-pooling的效果差别不大,因此本文采用max-pooling。


三、实验


本文在Citation、Reddit、Protein-protein interactions三个数据集上进行实验测试效果,其中前两个是不断演化的图数据,最后一个是多图数据集。同时也对比了其他baseline方法,具体实验设置参照原文。实验结果如下:


14LCQL)3~}FF6O7JP[6{MMF.png

                                                    实验


同时也测试了算法的时间效率以及邻域采样大小对模型效果的影响:


7SV53SEL[IRC2G97P2IN]NA.png

                                                 实验


图B表明随着邻域采样大小的增长,模型的性能收益是在下降的,运行时间却大量提高,这表明我们需要合理选择邻域采样的大小。

相关文章
|
自然语言处理 搜索推荐 算法
M2GRL:一种用于全网规模推荐系统的多任务多视角图表示学习框架
由阿里云开发者社区联合新零售智能引擎事业群共同打造的《KDD 论文精华解读》电子书重磅发布!覆盖推荐系统、图神经网络预训练、买家秀视频标题生成、在线电视剧的受众竞争力预测和分析等 10+ 内容,免费下载电子书感受科技的震撼!
M2GRL:一种用于全网规模推荐系统的多任务多视角图表示学习框架
|
26天前
|
机器学习/深度学习 资源调度 算法
图卷积网络入门:数学基础与架构设计
本文系统地阐述了图卷积网络的架构原理。通过简化数学表述并聚焦于矩阵运算的核心概念,详细解析了GCN的工作机制。
72 3
图卷积网络入门:数学基础与架构设计
|
7月前
|
存储 安全 关系型数据库
技术人必修课:利用金字塔原理高效思考与表达
作者写这篇文章的目的就是希望能够帮助更多同学了解金字塔原理并合理应用,不只是写作,更是要着眼于思考和表达。本文将围绕认识金字塔结构、表达的逻辑、思考的逻辑、解决问题的框架、演示的逻辑这几个方面带领大家深入学习金字塔原理。
|
7月前
多水平模型、分层线性模型HLM、混合效应模型研究教师的受欢迎程度
多水平模型、分层线性模型HLM、混合效应模型研究教师的受欢迎程度
|
7月前
|
存储 数据挖掘
R语言用WinBUGS 软件对学术能力测验建立层次(分层)贝叶斯模型
R语言用WinBUGS 软件对学术能力测验建立层次(分层)贝叶斯模型
|
7月前
|
机器学习/深度学习 算法 文件存储
QuadraNet部署之星 | 从神经元重构到结构和整个模型的全面设计
QuadraNet部署之星 | 从神经元重构到结构和整个模型的全面设计
78 0
|
机器学习/深度学习 人工智能 算法
NeurIPS 2022 | 直面图的复杂性,港中文等提出面向图数据分布外泛化的因果表示学习(1)
NeurIPS 2022 | 直面图的复杂性,港中文等提出面向图数据分布外泛化的因果表示学习
107 0
NeurIPS 2022 | 直面图的复杂性,港中文等提出面向图数据分布外泛化的因果表示学习(1)
|
编解码 自然语言处理 数据可视化
MIM方法为什么简单高效?可视化和大规模实验给出了答案
MIM方法为什么简单高效?可视化和大规模实验给出了答案
235 0
MIM方法为什么简单高效?可视化和大规模实验给出了答案
|
机器学习/深度学习 人工智能 自然语言处理
NeurIPS 2022 | 直面图的复杂性,港中文等提出面向图数据分布外泛化的因果表示学习(2)
NeurIPS 2022 | 直面图的复杂性,港中文等提出面向图数据分布外泛化的因果表示学习
241 0
|
机器学习/深度学习 算法 搜索推荐
亚马逊团队使用受物理启发的图神经网络,解决组合优化等问题
亚马逊团队使用受物理启发的图神经网络,解决组合优化等问题
201 0