用于多关系数据的图神经网络R-GCNs(上)

简介: 用于多关系数据的图神经网络R-GCNs

文描述如何扩展图神经网络(GNNs)的最简单公式,以编码知识图谱(KGs)等多关系数据的结构。

这篇文章包括4个主要部分:

  1. 介绍了描述KGs特性的多关系数据的核心思想;
  2. GNN体系结构中包含的标准组件摘要;
  3. gnn最简单公式的描述,称为图卷积网络(GCNs);
  4. 讨论如何以关系图卷积网络(R-GCN)的形式扩展GCN层,对多关系数据进行编码。

知识图作为多关系数据

基本图结构包括用于连接节点的无向,无类型和唯一边。例如,在哲学领域,我们可以定义两个由“苏格拉底”和“柏拉图”实体表示的节点之间的链接。在这种特定情况下,我们不提供关于这些哲学家之间关系的任何信息。。

另一方面,KG包括定向的,类型化的和用于连接节点的多个边。考虑我们正在运行的示例,从“苏格拉底”到“柏拉图”的连接可以用“影响”来标记。在相反的方向上,可以建立从“柏拉图”到“苏格拉底”的另一种连接,可以用“影响者”来标记。

换句话说,KG是基于图的结构,其节点表示真实世界的实体,而边沿则定义了这些实体之间的多个关系。

图神经网络

GNN的主要组件包括(I)输入层,(ii) GNN层,(iii)多层感知器(MLP)预测层。

在该体系结构中,GNN层是编码局部图结构的关键组件,用于更新节点表示。不同的GNN层使用不同类型的局部图结构聚合。为了说明使用GNN行为,我们使用NumPy进行编码,完成以下3个主要成分:

  1. 表示节点的独热向量(无特征)矩阵
  2. 描述节点隐藏特征的权值矩阵
  3. 定义节点间无向边的邻接矩阵
###One-hotvectorrepresentationofnodes (5,5):
X=np.eye(5, 5)
n=X.shape[0]
np.random.shuffle(X)
print(X)
-----[[0.0.1.0.0.] #Node1  [0.1.0.0.0.] #Node2  [0.0.0.0.1.] ...
  [1.0.0.0.0.]
  [0.0.0.1.0.]] #Node5###Weightmatrix (5,3)
#Dimensionofthehiddenfeaturesh=3#RandominitializationwithGlorotandBengioW=np.random.uniform(-np.sqrt(1./h), np.sqrt(1./h),(n,h))
print(W)
-----[[-0.42940490.57624235-0.3047382 ]
  [-0.11941829-0.129429530.19600584]
  [ 0.50291720.3998854-0.21561317]
  [ 0.02834577-0.06529497-0.31225734]
  [ 0.039737760.47800217-0.04941563]]
###AdjacencymatrixofanundirectGraph (5,5)
A=np.random.randint(2, size=(n, n))
#Includetheselfloopnp.fill_diagonal(A, 1)
#Symmetricadjacencymatrix (undirectedgraph)
A_und= (A+A.T)
A_und[A_und>1] =1print(A_und)
-----[[11101] #ConnectionstoNode1  [11111]
  [11110]
  [01111]
  [11011]]

考虑到这些因素,通过更新过程的所谓“消息传递框架”(message passing framework ,Gilmer ,2017)执行了“递归邻域扩散”( recursive neighborhood diffusion ,Dwivedi,2020)。邻居的特征通过边缘作为消息传递给目标节点。具体地说,所需的操作如下(请参阅NumPy代码了解更多细节):

  1. 涉及节点和权重矩阵(包括其隐藏特征)的初始表示的线性变换(或投影)。
  2. 邻域扩散以更新节点的表示形式,汇总其邻居的隐藏特征。针对每个节点并行计算此操作。
###LineartransformationL_0=X.dot(W)
print(L_0)
-----[[ 0.50291720.3998854-0.21561317] #Node1 (3rdrowofW)
  [-0.11941829-0.129429530.19600584] #Node2 (2ndrowofW)
  [ 0.039737760.47800217-0.04941563] #Node3 (5throwofW)
  [-0.42940490.57624235-0.3047382 ]
  [ 0.02834577-0.06529497-0.31225734]] #Node5 (4throwofW)
###GNN-NeighborhooddiffusionND_GNN=A_und.dot(L_0)
print(ND_GNN)
-----[[ 0.451582440.68316307-0.3812803 ] #UpdatedNode1  [ 0.022177541.25940542-0.6860185 ]
  [-0.006168231.3247004-0.37376116]
  [-0.480739660.85952002-0.47040533]
  [-0.017560220.78140325-0.63660287]]
###Testontheaggregationassert(ND_GNN[0,0] ==L_0[0,0] +L_0[1,0] +L_0[2,0] +L_0[4,0])

观察邻域扩散的结果,您可以注意到节点1的更新表示

[0.50291720.3998854-0.21561317] #Node1

为表示节点1 (self-loop)、节点2、节点3、节点4的向量之和。这些节点根据前面定义的邻接矩阵连接到节点1。

[ 0.50291720.3998854-0.21561317] #Node1[-0.11941829-0.129429530.19600584] #Node2[ 0.039737760.47800217-0.04941563] #Node3[ 0.02834577-0.06529497-0.31225734] #Node5

本节中描述的代码可以在数学上形式化如下:

640.png

通用更新功能(h_i ^(l + 1)),用于将邻居(h_j ^ l)的隐藏特征聚合到中心节点(h_i ^ l)的隐藏特征

图卷积网络(GCNs)

在被称为普通图卷积网络(GCNs)的GNNs的公式中,节点更新是通过“对邻域特征进行各向同性平均运算”来执行的(isotropic averaging operation over the neighborhood features ,Dwivedi,2020)。换句话说,相邻节点同样有助于更新中心节点的表示。更准确地说,在普通GCNs(Vanilla GCNs)的具体情况下,执行了各向同性平均计算。这个计算需要一个由每个节点的度表示的新元素,该度由其连接边的数量组成。

###Degreevector (degreeforeachnode)
D=A_und.sum(axis=1)
print(D)
-----[45444] #DegreeofNode1###Reciprocalofthedegree (diagonalmatrix)
D_rec=np.diag(np.reciprocal(D.astype(np.float32)))
print(D_rec)
-----[[0.250.0.0.0. ] #ReciprocalvalueofNode1degree  [0.0.20.0.0. ]
  [0.0.0.250.0. ]
  [0.0.0.0.250. ]
  [0.0.0.0.0.25]]
###GCN-IsotropicaveragecomputationND_GCN=D_rec.dot(ND_GNN)
print(ND_GCN)
-----[[ 0.112895610.17079077-0.09532007] #UpdatedNode1 (withdeg)
  [ 0.004435510.25188109-0.1372037 ]
  [-0.001542060.3311751-0.09344029]
  [-0.120184910.21488001-0.11760133]
  [-0.004390050.19535081-0.15915072]]
###Testontheisotropicaveragecomputation:
assert(ND_GCN[0,0] ==ND_GNN[0,0] *D_rec[0,0])

度向量的每个元素代表i节点的度值。实际上,向量的第一个元素等于4,因为邻接矩阵显示4个节点连接到节点1。然后计算度数的倒数,以实现连接到节点的边的平均贡献。最后,根据GCN公式进行各向同性平均计算。使用节点1度执行平均计算的节点1的更新表示等于:

[ 0.112895610.17079077-0.09532007]

通过将以下向量(表示节点1的聚合表示)乘以其度数的倒数(0.25),可以得到此向量:

[ 0.451582440.68316307-0.3812803 ]

本节中描述的代码可以通过数学形式化如下:

640.png

描述GCN层执行的各向同性平均聚合的函数。U是投影步长的结果,deg是中心节点的度数。N是其邻居数

目录
相关文章
|
4天前
|
Java Linux API
统计android设备的网络数据使用量
统计android设备的网络数据使用量
16 0
|
1天前
|
安全 网络协议 算法
网络安全与信息安全:保护你的数据,保护你的世界
【5月更文挑战第18天】在数字化的世界中,网络安全和信息安全已经成为我们生活的重要组成部分。本文将深入探讨网络安全漏洞、加密技术以及安全意识等方面的内容,帮助读者更好地理解和保护自己的数据。我们将讨论如何识别和防止网络安全威胁,如何使用加密技术来保护信息,以及如何提高自己的安全意识。
|
2天前
|
机器学习/深度学习 数据挖掘 算法框架/工具
想要了解图或图神经网络?没有比看论文更好的方式,面试阿里国际站运营一般会问什么
想要了解图或图神经网络?没有比看论文更好的方式,面试阿里国际站运营一般会问什么
|
2天前
|
机器学习/深度学习 JSON PyTorch
图神经网络入门示例:使用PyTorch Geometric 进行节点分类
本文介绍了如何使用PyTorch处理同构图数据进行节点分类。首先,数据集来自Facebook Large Page-Page Network,包含22,470个页面,分为四类,具有不同大小的特征向量。为训练神经网络,需创建PyTorch Data对象,涉及读取CSV和JSON文件,处理不一致的特征向量大小并进行归一化。接着,加载边数据以构建图。通过`Data`对象创建同构图,之后数据被分为70%训练集和30%测试集。训练了两种模型:MLP和GCN。GCN在测试集上实现了80%的准确率,优于MLP的46%,展示了利用图信息的优势。
9 1
|
2天前
|
机器学习/深度学习 人工智能 安全
网络安全与信息安全:保护数据的关键策略
【5月更文挑战第17天】在数字化时代,网络安全和信息安全已成为维护个人和企业资产的核心。本文将深入探讨网络安全漏洞的概念、加密技术的重要性以及提升安全意识的必要性。我们将分析当前网络环境中的安全挑战,介绍最新的加密方法,并分享如何培养强大的安全文化,以减少潜在的网络攻击和数据泄露风险。
|
4天前
|
安全 网络安全 数据安全/隐私保护
网络安全与信息安全:保护您的数据和隐私
【5月更文挑战第14天】本文将探讨网络安全漏洞、加密技术和安全意识等方面,以帮助读者更好地了解如何保护他们的数据和隐私。我们将讨论各种类型的网络攻击,以及如何使用加密技术来保护信息。此外,我们还将强调培养良好的安全习惯的重要性,以降低遭受网络攻击的风险。
|
4天前
|
安全 网络协议 网络安全
网络安全与信息安全:保护你的数据,保护你的未来
【5月更文挑战第14天】在数字化的世界中,网络安全和信息安全是每个互联网用户都必须面对的问题。本文将深入探讨网络安全漏洞、加密技术以及安全意识等方面的知识,帮助读者更好地理解和保护自己的数据。我们将讨论如何识别和防范网络安全威胁,如何使用加密技术来保护数据,以及如何提高自己的安全意识,从而在网络世界中更安全地生活。
|
4天前
|
安全 物联网 网络安全
网络安全与信息安全:保护数据的关键策略
【5月更文挑战第14天】 在数字化时代,网络安全和信息安全已成为维护个人隐私、企业资产和国家安全的基石。面对日益增长的网络威胁,理解并应对安全漏洞、掌握加密技术以及提升安全意识显得尤为重要。本文将深入探讨当前的网络安全隐患,解析加密技术的工作原理及其重要性,并提出提高个人和组织安全意识的有效方法。我们的目标是通过知识分享,为读者提供一套全面的网络安全自保策略。
|
4天前
|
安全 网络安全 数据安全/隐私保护
网络安全与信息安全:保护你的数据,保护你的未来
【5月更文挑战第14天】在数字化的世界中,网络安全和信息安全是我们生活的基石。本文将深入探讨网络安全漏洞、加密技术以及安全意识等方面,以期帮助读者更好地理解和应对网络安全威胁。我们将从网络安全的基本概念出发,分析常见的网络攻击手段,然后介绍加密技术的基本原理和应用。最后,我们将讨论如何提高个人和企业的安全意识,以应对日益严峻的网络安全形势。
|
4天前
|
网络安全 数据安全/隐私保护 计算机视觉
2024蓝桥杯网络安全-图片隐写-缺失的数据(0基础也能学会-含代码解释)
2024蓝桥杯网络安全-图片隐写-缺失的数据(0基础也能学会-含代码解释)

热门文章

最新文章