用于多关系数据的图神经网络R-GCNs(上)

简介: 用于多关系数据的图神经网络R-GCNs

文描述如何扩展图神经网络(GNNs)的最简单公式,以编码知识图谱(KGs)等多关系数据的结构。

这篇文章包括4个主要部分:

  1. 介绍了描述KGs特性的多关系数据的核心思想;
  2. GNN体系结构中包含的标准组件摘要;
  3. gnn最简单公式的描述,称为图卷积网络(GCNs);
  4. 讨论如何以关系图卷积网络(R-GCN)的形式扩展GCN层,对多关系数据进行编码。

知识图作为多关系数据

基本图结构包括用于连接节点的无向,无类型和唯一边。例如,在哲学领域,我们可以定义两个由“苏格拉底”和“柏拉图”实体表示的节点之间的链接。在这种特定情况下,我们不提供关于这些哲学家之间关系的任何信息。。

另一方面,KG包括定向的,类型化的和用于连接节点的多个边。考虑我们正在运行的示例,从“苏格拉底”到“柏拉图”的连接可以用“影响”来标记。在相反的方向上,可以建立从“柏拉图”到“苏格拉底”的另一种连接,可以用“影响者”来标记。

换句话说,KG是基于图的结构,其节点表示真实世界的实体,而边沿则定义了这些实体之间的多个关系。

图神经网络

GNN的主要组件包括(I)输入层,(ii) GNN层,(iii)多层感知器(MLP)预测层。

在该体系结构中,GNN层是编码局部图结构的关键组件,用于更新节点表示。不同的GNN层使用不同类型的局部图结构聚合。为了说明使用GNN行为,我们使用NumPy进行编码,完成以下3个主要成分:

  1. 表示节点的独热向量(无特征)矩阵
  2. 描述节点隐藏特征的权值矩阵
  3. 定义节点间无向边的邻接矩阵
###One-hotvectorrepresentationofnodes (5,5):
X=np.eye(5, 5)
n=X.shape[0]
np.random.shuffle(X)
print(X)
-----[[0.0.1.0.0.] #Node1  [0.1.0.0.0.] #Node2  [0.0.0.0.1.] ...
  [1.0.0.0.0.]
  [0.0.0.1.0.]] #Node5###Weightmatrix (5,3)
#Dimensionofthehiddenfeaturesh=3#RandominitializationwithGlorotandBengioW=np.random.uniform(-np.sqrt(1./h), np.sqrt(1./h),(n,h))
print(W)
-----[[-0.42940490.57624235-0.3047382 ]
  [-0.11941829-0.129429530.19600584]
  [ 0.50291720.3998854-0.21561317]
  [ 0.02834577-0.06529497-0.31225734]
  [ 0.039737760.47800217-0.04941563]]
###AdjacencymatrixofanundirectGraph (5,5)
A=np.random.randint(2, size=(n, n))
#Includetheselfloopnp.fill_diagonal(A, 1)
#Symmetricadjacencymatrix (undirectedgraph)
A_und= (A+A.T)
A_und[A_und>1] =1print(A_und)
-----[[11101] #ConnectionstoNode1  [11111]
  [11110]
  [01111]
  [11011]]

考虑到这些因素,通过更新过程的所谓“消息传递框架”(message passing framework ,Gilmer ,2017)执行了“递归邻域扩散”( recursive neighborhood diffusion ,Dwivedi,2020)。邻居的特征通过边缘作为消息传递给目标节点。具体地说,所需的操作如下(请参阅NumPy代码了解更多细节):

  1. 涉及节点和权重矩阵(包括其隐藏特征)的初始表示的线性变换(或投影)。
  2. 邻域扩散以更新节点的表示形式,汇总其邻居的隐藏特征。针对每个节点并行计算此操作。
###LineartransformationL_0=X.dot(W)
print(L_0)
-----[[ 0.50291720.3998854-0.21561317] #Node1 (3rdrowofW)
  [-0.11941829-0.129429530.19600584] #Node2 (2ndrowofW)
  [ 0.039737760.47800217-0.04941563] #Node3 (5throwofW)
  [-0.42940490.57624235-0.3047382 ]
  [ 0.02834577-0.06529497-0.31225734]] #Node5 (4throwofW)
###GNN-NeighborhooddiffusionND_GNN=A_und.dot(L_0)
print(ND_GNN)
-----[[ 0.451582440.68316307-0.3812803 ] #UpdatedNode1  [ 0.022177541.25940542-0.6860185 ]
  [-0.006168231.3247004-0.37376116]
  [-0.480739660.85952002-0.47040533]
  [-0.017560220.78140325-0.63660287]]
###Testontheaggregationassert(ND_GNN[0,0] ==L_0[0,0] +L_0[1,0] +L_0[2,0] +L_0[4,0])

观察邻域扩散的结果,您可以注意到节点1的更新表示

[0.50291720.3998854-0.21561317] #Node1

为表示节点1 (self-loop)、节点2、节点3、节点4的向量之和。这些节点根据前面定义的邻接矩阵连接到节点1。

[ 0.50291720.3998854-0.21561317] #Node1[-0.11941829-0.129429530.19600584] #Node2[ 0.039737760.47800217-0.04941563] #Node3[ 0.02834577-0.06529497-0.31225734] #Node5

本节中描述的代码可以在数学上形式化如下:

640.png

通用更新功能(h_i ^(l + 1)),用于将邻居(h_j ^ l)的隐藏特征聚合到中心节点(h_i ^ l)的隐藏特征

图卷积网络(GCNs)

在被称为普通图卷积网络(GCNs)的GNNs的公式中,节点更新是通过“对邻域特征进行各向同性平均运算”来执行的(isotropic averaging operation over the neighborhood features ,Dwivedi,2020)。换句话说,相邻节点同样有助于更新中心节点的表示。更准确地说,在普通GCNs(Vanilla GCNs)的具体情况下,执行了各向同性平均计算。这个计算需要一个由每个节点的度表示的新元素,该度由其连接边的数量组成。

###Degreevector (degreeforeachnode)
D=A_und.sum(axis=1)
print(D)
-----[45444] #DegreeofNode1###Reciprocalofthedegree (diagonalmatrix)
D_rec=np.diag(np.reciprocal(D.astype(np.float32)))
print(D_rec)
-----[[0.250.0.0.0. ] #ReciprocalvalueofNode1degree  [0.0.20.0.0. ]
  [0.0.0.250.0. ]
  [0.0.0.0.250. ]
  [0.0.0.0.0.25]]
###GCN-IsotropicaveragecomputationND_GCN=D_rec.dot(ND_GNN)
print(ND_GCN)
-----[[ 0.112895610.17079077-0.09532007] #UpdatedNode1 (withdeg)
  [ 0.004435510.25188109-0.1372037 ]
  [-0.001542060.3311751-0.09344029]
  [-0.120184910.21488001-0.11760133]
  [-0.004390050.19535081-0.15915072]]
###Testontheisotropicaveragecomputation:
assert(ND_GCN[0,0] ==ND_GNN[0,0] *D_rec[0,0])

度向量的每个元素代表i节点的度值。实际上,向量的第一个元素等于4,因为邻接矩阵显示4个节点连接到节点1。然后计算度数的倒数,以实现连接到节点的边的平均贡献。最后,根据GCN公式进行各向同性平均计算。使用节点1度执行平均计算的节点1的更新表示等于:

[ 0.112895610.17079077-0.09532007]

通过将以下向量(表示节点1的聚合表示)乘以其度数的倒数(0.25),可以得到此向量:

[ 0.451582440.68316307-0.3812803 ]

本节中描述的代码可以通过数学形式化如下:

640.png

描述GCN层执行的各向同性平均聚合的函数。U是投影步长的结果,deg是中心节点的度数。N是其邻居数

目录
相关文章
|
2月前
|
机器学习/深度学习 算法 调度
14种智能算法优化BP神经网络(14种方法)实现数据预测分类研究(Matlab代码实现)
14种智能算法优化BP神经网络(14种方法)实现数据预测分类研究(Matlab代码实现)
277 0
|
3月前
|
机器学习/深度学习 数据采集 传感器
【故障诊断】基于matlab BP神经网络电机数据特征提取与故障诊断研究(Matlab代码实现)
【故障诊断】基于matlab BP神经网络电机数据特征提取与故障诊断研究(Matlab代码实现)
116 0
|
4月前
|
数据采集 存储 算法
MyEMS 开源能源管理系统:基于 4G 无线传感网络的能源数据闭环管理方案
MyEMS 是开源能源管理领域的标杆解决方案,采用 Python、Django 与 React 技术栈,具备模块化架构与跨平台兼容性。系统涵盖能源数据治理、设备管理、工单流转与智能控制四大核心功能,结合高精度 4G 无线计量仪表,实现高效数据采集与边缘计算。方案部署灵活、安全性高,助力企业实现能源数字化与碳减排目标。
125 0
|
5月前
|
Python
LBA-ECO CD-32 通量塔网络数据汇编,巴西亚马逊:1999-2006,V2
该数据集汇集了1999年至2006年间巴西亚马逊地区九座观测塔的碳和能量通量、气象、辐射等多类数据,涵盖小时至月度时间步长。作为第二版汇编,数据经过协调与质量控制,扩展了第一版内容,并新增生态系统呼吸等相关计算数据,支持综合研究与模型合成。数据以36个制表符分隔文本文件形式提供,配套PDF说明文件,适用于生态与气候研究。引用来源为Restrepo-Coupe等人(2021)。
75 1
|
20天前
|
机器学习/深度学习 人工智能 算法
【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究(Matlab代码实现)
【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究(Matlab代码实现)
|
2月前
|
机器学习/深度学习 数据采集 运维
改进的遗传算法优化的BP神经网络用于电厂数据的异常检测和故障诊断
改进的遗传算法优化的BP神经网络用于电厂数据的异常检测和故障诊断
|
4月前
|
存储 监控 算法
基于 Python 跳表算法的局域网网络监控软件动态数据索引优化策略研究
局域网网络监控软件需高效处理终端行为数据,跳表作为一种基于概率平衡的动态数据结构,具备高效的插入、删除与查询性能(平均时间复杂度为O(log n)),适用于高频数据写入和随机查询场景。本文深入解析跳表原理,探讨其在局域网监控中的适配性,并提供基于Python的完整实现方案,优化终端会话管理,提升系统响应性能。
116 4
|
5月前
|
开发者
鸿蒙仓颉语言开发教程:网络请求和数据解析
本文介绍了在仓颉开发语言中实现网络请求的方法,以购物应用的分类列表为例,详细讲解了从权限配置、发起请求到数据解析的全过程。通过示例代码,帮助开发者快速掌握如何在网络请求中处理数据并展示到页面上,减少开发中的摸索成本。
鸿蒙仓颉语言开发教程:网络请求和数据解析
|
7月前
|
安全 网络安全 定位技术
网络通讯技术:HTTP POST协议用于发送本地压缩数据到服务器的方案。
总的来说,无论你是一名网络开发者,还是普通的IT工作人员,理解并掌握POST方法的运用是非常有价值的。它就像一艘快速,稳定,安全的大船,始终为我们在网络海洋中的冒险提供了可靠的支持。
236 22
|
7月前
|
存储 数据库 Python
利用Python获取网络数据的技巧
抓起你的Python魔杖,我们一起进入了网络之海,捕捉那些悠游在网络中的数据鱼,想一想不同的网络资源,是不是都像数不尽的海洋生物,我们要做的,就是像一个优秀的渔民一样,找到他们,把它们捕获,然后用他们制作出种种美味。 **1. 打开魔法之门:请求包** 要抓鱼,首先需要一个鱼网。在Python的世界里,我们就是通过所谓的“请求包”来发送“抓鱼”的请求。requests是Python中常用的发送HTTP请求的库,用它可以方便地与网络上的资源进行交互。所谓的GET,POST,DELETE,还有PUT,这些听起来像偶像歌曲一样的单词,其实就是我们鱼网的不同方式。 简单用法如下: ``` im
150 14

热门文章

最新文章