第二代图卷积网络:应用快速局部谱卷积的图卷积网络

简介: 第二代图卷积网络:应用快速局部谱卷积的图卷积网络

论文标题:Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering


论文链接:https://arxiv.org/abs/1606.09375


论文来源:NeurIPS 2016


之前的文章:


傅里叶级数与傅里叶变换


图神经网络中的谱图理论基础


第一代图卷积网络:图的频域网络与深度局部连接网络


一、概述


在将CNN泛化到图数据上的一个主要的瓶颈在于局部图卷积核的定义。本文在第一代图卷积神经网络上进行改进,定义了第二代图卷积神经网络,主要的贡献如下:


①谱图理论表达式:一种基于图信号处理(Graph Signal Processing,GSP)中已建立的工具的图上卷积神经网络的谱图理论公式。


②严格局部化的卷积核:本文提出的卷积核在中心节点的以KO%CV_5~5F1@57LH%O{YK44.png为半径的最短路径内是严格局部化的。

③低计算复杂度:本文提出的卷积核的复杂度是和卷积核的尺寸KO%CV_5~5F1@57LH%O{YK44.png以及边的数量成线性关系的,另外由于大多数图稀疏的,我们可以估计地认为9(Q%CN)}$QC59VRIOXGSITI.png,也就是每个节点只和8RC`2EJ`H`5XJZ@V7J$9A$9.png个近邻有边,这样复杂度就和节点数量[MFAUEVQZVU]3%S2TIY(GTI.png成线性关系。另外本方法避免了使用傅里叶基底,因此不再需要进行昂贵的特征值分解以及存储傅里叶基底(使用一个_N]6L`KV07L{Z3TE5MWYQ60.png大小的矩阵)。除了数据,本方法只需要存储拉普拉斯矩阵这个包含~`SDBI@]XR352T42(]IGBQA.png个非零值的稀疏矩阵。


④高效池化:本文提出了一种图上的高效池化策略。


⑤实验结果:通过实验证明了方法的有效性,并与其他方法进行了对比。


二、方法


将CNN泛化到图上需要3个基本步骤:


①设计图上的局部卷积核;


②图的粗化(coarsening);


③图的池化(pooling)。


  1. 学习快速局部谱卷积核

定义图卷积核的方法分空域(spatial)和频域(spectral)两种。空域的方法可以通过定义有限大小的卷积核来确保卷积核的局部性。卷积定理将卷积定义为在傅里叶基底(表示为拉普拉斯矩阵的特征向量)中对角化的线性算子,频域方法应用这一定理,然而频域卷积核存在两个限制:


①频域卷积核并非天然局部化;


②由于需要与图傅里叶基底相乘,会产生79AMDA~3%R6Q{39DQ2UM2K8.png的复杂度,转换成本很高。在本文中上述两个限制可以通过特殊的卷积核参数化选择来克服,这也是本文的主要内容之一。


  • 图信号的谱卷积核


WYG8O8CPX5F6E_TWR_[`VH2.png

73T[SLZ7Y4Z4PM7IMP2BT(V.png


这里`SMUL`H)C]UWUC7_GN$X0Q4.png,是一个傅里叶系数向量,其实可以理解为卷积核与HI5I7C9_KSJ}JMO)RG5C20N.png相乘后的结果,这个结果的每一维相当于这一维对应的特征向量的系数。


  • 局部卷积核的多项式参数化


前述非参数化的卷积核有两个局限性:


①这样的卷积核在空间上不是局部化的;


②他们的学习复杂度是L9}ZC)6P}NHYT$XIPK4)VP0.png


这些局限性可以通过采用多项式卷积核来解决:


850M98)6IQL]2Y04OSOR6K4.png


E@H[O%6W35V9{9YB3F`_JBC.png


  • 应用递归多项式的快速卷积


_5H65}7YRJMA{ULOGHHQ9MY.png

7Z`DE_G%1BYC@V`FE}EGSV3.png


  • 卷积核的学习


]2SQ1SEZ@BSIXLCCDF5MQ`D.png


  1. 图的粗化


池化操作需要将相似的节点聚类到一起,对于多层网络来说做到这一点相当于对需要保持局部几何结构的图进行多尺度聚类(multi-scale clustering)。图的聚类方法存在多种,比如常见的谱聚类方法(参考链接:谱聚类|机器学习推导系列(二十))。在本文的方法中没有采用谱聚类这种方法,而是选择了一种近似能够将图的规模除以2的聚类方法,这样的方法可以精确控制粗化和池化的size。本文采用的图粗化方法为Graclus多尺度聚类算法。


Graclus方法采用一种贪婪的方法来计算给定图的连续的粗化的版本,并且能够最小化多种谱聚类的目标,在这里选择的目标为normalized cut。具体的方法是在每层进行粗化时,选择一个未标记的节点DM%GR@DUWKD23M]$E_YBLAJ.png,然后选择一个能够最小化~5}[ZC4F~B~I@P7CNUKW3MG.png的未标记的邻居节点,然后将这两个节点标记,这两个匹配的节点在池化时被合并,合并节点的信号是这两个节点的信号加和。上述匹配的过程一直进行下去知道所有节点被遍历。这种方法是非常快速的,并且能够将图的规模近似除以2,之所以近似是因为可能有一些未匹配的节点(文中称为singleton节点)。


  1. 图信号的快速池化


池化操作被执行多次,所以必须是高效的。输入的图和粗化图的节点的排列方法是无意义的,因此,一个直接的池化操作的方法是需要一张表来保存匹配的节点,然而这种方法是内存低效的,并且缓慢,也不能并行处理。本文采用的方法可以使得池化操作像1D池化那样高效。


本文采用的方法分两个步骤:


①创建一个平衡二叉树;


②重排列所有节点。


在进行图的粗化以后,粗化图的每个节点要么有两个子节点(被匹配到的节点),要么只有一个节点(singleton节点)。从最粗到最细的图,将会添加fake节点(不与图连接在一起)到每一层来与singleton节点进行匹配。这样的结构是一个平衡二叉树,主要包含3种节点:


①regular节点(或者singleton节点),拥有两个regular子节点(如下图 level 1节点0);


②regular节点(或者singleton节点),拥有一个regular节点和一个singleton节点座位子节点的节点(如下图 level 2节点0);


③fake节点,总是拥有两个fake子节点(如下图 level 1节点1)。


fake节点的值初始化通常选择一个中性的值,比如当使用max pooling和ReLU激活函数时初始化为0。这些fake节点不与图的节点连接,因此卷积操作不会影响到它们。虽然这些节点会增加数据的维度,这样会增加计算的花费,但是在实践中证明Graclus方法所剩下的singleton节点是比较少的。在最粗化的图中任意排列节点,然后传播回最细的图中,这是由于粗化图中第RIF_06(BAEP%OBHC66AM0UT.png的节点的子节点是上一层图中的(4%[)W@WZE{YAXO$WO3(I_5.png节点,这样就可以在最细的图中有一个规范的排列顺序,这里规范是指相邻节点在较粗的层次上分层合并。这种pooling方法类似1D pooling。这种规范的排列能够让pooling操作非常的高效且可以并行化,并且内存访问是local的。下图是这种方法的一个例子:


Y_Z0~78G%)S9(_[RQO(@FQH.png

                                             pooling


三、实验


这里简单列几个实验结果,具体实验设置可以自行参考原论文。


  1. MNIST数据集上对比经典CNN


@I6%0}EE9M36{H`KD4]KIUP.png

                                     MNIST数据集上对比经典CNN


  1. 20NEWs数据集上多种架构效果


@{9NHHY`EB~DQ@R1NEN9MIF.png

                  20NEWs数据集上多种架构效果


  1. MNIST数据集上多种卷积核的对比


下图中Non-Param和Spline代表第一代GCN论文中提出的两种卷积核,Chebyshev代表本文提出的卷积核:


F4XC6@YLM5%VE)L)1VD{CWP.png

                          MNIST数据集上多种卷积核的对比


  1. GPU加速效果对比


下图表明本文提出的GCN结构在使用GPU加速时比经典CNN能获得更多的加速倍数,说明该架构的并行化处理能力是比较可观的:


`~]J@~{HT@B8KAMS4SE3I)2.png

                                            GPU加速效果对比

相关文章
|
7天前
|
机器学习/深度学习 编解码 自动驾驶
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
31 3
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
|
1月前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的眼疾识别系统实现~人工智能+卷积网络算法
眼疾识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了4种常见的眼疾图像数据集(白内障、糖尿病性视网膜病变、青光眼和正常眼睛) 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,实现用户上传一张眼疾图片识别其名称。
130 5
基于Python深度学习的眼疾识别系统实现~人工智能+卷积网络算法
|
4天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
蘑菇识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了9种常见的蘑菇种类数据集【"香菇(Agaricus)", "毒鹅膏菌(Amanita)", "牛肝菌(Boletus)", "网状菌(Cortinarius)", "毒镰孢(Entoloma)", "湿孢菌(Hygrocybe)", "乳菇(Lactarius)", "红菇(Russula)", "松茸(Suillus)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,
41 11
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
|
11天前
|
机器学习/深度学习 编解码 自动驾驶
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
39 16
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
|
11天前
|
机器学习/深度学习 存储
YOLOv11改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
YOLOv11改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
36 15
YOLOv11改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
|
8天前
|
机器学习/深度学习
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
40 8
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
|
7天前
|
机器学习/深度学习 编解码 移动开发
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
26 5
RT-DETR改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
|
11天前
|
机器学习/深度学习 编解码 移动开发
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
23 7
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
|
1天前
|
机器学习/深度学习 数据采集 运维
机器学习在网络流量预测中的应用:运维人员的智慧水晶球?
机器学习在网络流量预测中的应用:运维人员的智慧水晶球?
28 18
|
7天前
|
机器学习/深度学习
RT-DETR改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
RT-DETR改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
35 11

热门文章

最新文章