第二代图卷积网络:应用快速局部谱卷积的图卷积网络

简介: 第二代图卷积网络:应用快速局部谱卷积的图卷积网络

论文标题:Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering


论文链接:https://arxiv.org/abs/1606.09375


论文来源:NeurIPS 2016


之前的文章:


傅里叶级数与傅里叶变换


图神经网络中的谱图理论基础


第一代图卷积网络:图的频域网络与深度局部连接网络


一、概述


在将CNN泛化到图数据上的一个主要的瓶颈在于局部图卷积核的定义。本文在第一代图卷积神经网络上进行改进,定义了第二代图卷积神经网络,主要的贡献如下:


①谱图理论表达式:一种基于图信号处理(Graph Signal Processing,GSP)中已建立的工具的图上卷积神经网络的谱图理论公式。


②严格局部化的卷积核:本文提出的卷积核在中心节点的以KO%CV_5~5F1@57LH%O{YK44.png为半径的最短路径内是严格局部化的。

③低计算复杂度:本文提出的卷积核的复杂度是和卷积核的尺寸KO%CV_5~5F1@57LH%O{YK44.png以及边的数量成线性关系的,另外由于大多数图稀疏的,我们可以估计地认为9(Q%CN)}$QC59VRIOXGSITI.png,也就是每个节点只和8RC`2EJ`H`5XJZ@V7J$9A$9.png个近邻有边,这样复杂度就和节点数量[MFAUEVQZVU]3%S2TIY(GTI.png成线性关系。另外本方法避免了使用傅里叶基底,因此不再需要进行昂贵的特征值分解以及存储傅里叶基底(使用一个_N]6L`KV07L{Z3TE5MWYQ60.png大小的矩阵)。除了数据,本方法只需要存储拉普拉斯矩阵这个包含~`SDBI@]XR352T42(]IGBQA.png个非零值的稀疏矩阵。


④高效池化:本文提出了一种图上的高效池化策略。


⑤实验结果:通过实验证明了方法的有效性,并与其他方法进行了对比。


二、方法


将CNN泛化到图上需要3个基本步骤:


①设计图上的局部卷积核;


②图的粗化(coarsening);


③图的池化(pooling)。


  1. 学习快速局部谱卷积核

定义图卷积核的方法分空域(spatial)和频域(spectral)两种。空域的方法可以通过定义有限大小的卷积核来确保卷积核的局部性。卷积定理将卷积定义为在傅里叶基底(表示为拉普拉斯矩阵的特征向量)中对角化的线性算子,频域方法应用这一定理,然而频域卷积核存在两个限制:


①频域卷积核并非天然局部化;


②由于需要与图傅里叶基底相乘,会产生79AMDA~3%R6Q{39DQ2UM2K8.png的复杂度,转换成本很高。在本文中上述两个限制可以通过特殊的卷积核参数化选择来克服,这也是本文的主要内容之一。


  • 图信号的谱卷积核


WYG8O8CPX5F6E_TWR_[`VH2.png

73T[SLZ7Y4Z4PM7IMP2BT(V.png


这里`SMUL`H)C]UWUC7_GN$X0Q4.png,是一个傅里叶系数向量,其实可以理解为卷积核与HI5I7C9_KSJ}JMO)RG5C20N.png相乘后的结果,这个结果的每一维相当于这一维对应的特征向量的系数。


  • 局部卷积核的多项式参数化


前述非参数化的卷积核有两个局限性:


①这样的卷积核在空间上不是局部化的;


②他们的学习复杂度是L9}ZC)6P}NHYT$XIPK4)VP0.png


这些局限性可以通过采用多项式卷积核来解决:


850M98)6IQL]2Y04OSOR6K4.png


E@H[O%6W35V9{9YB3F`_JBC.png


  • 应用递归多项式的快速卷积


_5H65}7YRJMA{ULOGHHQ9MY.png

7Z`DE_G%1BYC@V`FE}EGSV3.png


  • 卷积核的学习


]2SQ1SEZ@BSIXLCCDF5MQ`D.png


  1. 图的粗化


池化操作需要将相似的节点聚类到一起,对于多层网络来说做到这一点相当于对需要保持局部几何结构的图进行多尺度聚类(multi-scale clustering)。图的聚类方法存在多种,比如常见的谱聚类方法(参考链接:谱聚类|机器学习推导系列(二十))。在本文的方法中没有采用谱聚类这种方法,而是选择了一种近似能够将图的规模除以2的聚类方法,这样的方法可以精确控制粗化和池化的size。本文采用的图粗化方法为Graclus多尺度聚类算法。


Graclus方法采用一种贪婪的方法来计算给定图的连续的粗化的版本,并且能够最小化多种谱聚类的目标,在这里选择的目标为normalized cut。具体的方法是在每层进行粗化时,选择一个未标记的节点DM%GR@DUWKD23M]$E_YBLAJ.png,然后选择一个能够最小化~5}[ZC4F~B~I@P7CNUKW3MG.png的未标记的邻居节点,然后将这两个节点标记,这两个匹配的节点在池化时被合并,合并节点的信号是这两个节点的信号加和。上述匹配的过程一直进行下去知道所有节点被遍历。这种方法是非常快速的,并且能够将图的规模近似除以2,之所以近似是因为可能有一些未匹配的节点(文中称为singleton节点)。


  1. 图信号的快速池化


池化操作被执行多次,所以必须是高效的。输入的图和粗化图的节点的排列方法是无意义的,因此,一个直接的池化操作的方法是需要一张表来保存匹配的节点,然而这种方法是内存低效的,并且缓慢,也不能并行处理。本文采用的方法可以使得池化操作像1D池化那样高效。


本文采用的方法分两个步骤:


①创建一个平衡二叉树;


②重排列所有节点。


在进行图的粗化以后,粗化图的每个节点要么有两个子节点(被匹配到的节点),要么只有一个节点(singleton节点)。从最粗到最细的图,将会添加fake节点(不与图连接在一起)到每一层来与singleton节点进行匹配。这样的结构是一个平衡二叉树,主要包含3种节点:


①regular节点(或者singleton节点),拥有两个regular子节点(如下图 level 1节点0);


②regular节点(或者singleton节点),拥有一个regular节点和一个singleton节点座位子节点的节点(如下图 level 2节点0);


③fake节点,总是拥有两个fake子节点(如下图 level 1节点1)。


fake节点的值初始化通常选择一个中性的值,比如当使用max pooling和ReLU激活函数时初始化为0。这些fake节点不与图的节点连接,因此卷积操作不会影响到它们。虽然这些节点会增加数据的维度,这样会增加计算的花费,但是在实践中证明Graclus方法所剩下的singleton节点是比较少的。在最粗化的图中任意排列节点,然后传播回最细的图中,这是由于粗化图中第RIF_06(BAEP%OBHC66AM0UT.png的节点的子节点是上一层图中的(4%[)W@WZE{YAXO$WO3(I_5.png节点,这样就可以在最细的图中有一个规范的排列顺序,这里规范是指相邻节点在较粗的层次上分层合并。这种pooling方法类似1D pooling。这种规范的排列能够让pooling操作非常的高效且可以并行化,并且内存访问是local的。下图是这种方法的一个例子:


Y_Z0~78G%)S9(_[RQO(@FQH.png

                                             pooling


三、实验


这里简单列几个实验结果,具体实验设置可以自行参考原论文。


  1. MNIST数据集上对比经典CNN


@I6%0}EE9M36{H`KD4]KIUP.png

                                     MNIST数据集上对比经典CNN


  1. 20NEWs数据集上多种架构效果


@{9NHHY`EB~DQ@R1NEN9MIF.png

                  20NEWs数据集上多种架构效果


  1. MNIST数据集上多种卷积核的对比


下图中Non-Param和Spline代表第一代GCN论文中提出的两种卷积核,Chebyshev代表本文提出的卷积核:


F4XC6@YLM5%VE)L)1VD{CWP.png

                          MNIST数据集上多种卷积核的对比


  1. GPU加速效果对比


下图表明本文提出的GCN结构在使用GPU加速时比经典CNN能获得更多的加速倍数,说明该架构的并行化处理能力是比较可观的:


`~]J@~{HT@B8KAMS4SE3I)2.png

                                            GPU加速效果对比

相关文章
|
6月前
|
机器学习/深度学习 PyTorch TensorFlow
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic,深度学习探索者。深耕TensorFlow与PyTorch,分享框架对比、性能优化与实战经验,助力技术进阶。
|
8月前
|
监控 安全 Shell
管道符在渗透测试与网络安全中的全面应用指南
管道符是渗透测试与网络安全中的关键工具,既可用于高效系统管理,也可能被攻击者利用实施命令注入、权限提升、数据外泄等攻击。本文全面解析管道符的基础原理、实战应用与防御策略,涵盖Windows与Linux系统差异、攻击技术示例及检测手段,帮助安全人员掌握其利用方式与防护措施,提升系统安全性。
368 6
|
7月前
|
机器学习/深度学习 人工智能 算法
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic带你深入卷积神经网络(CNN)核心技术,从生物启发到数学原理,详解ResNet、注意力机制与模型优化,探索视觉智能的演进之路。
671 11
|
7月前
|
机器学习/深度学习 传感器 数据采集
【故障识别】基于CNN-SVM卷积神经网络结合支持向量机的数据分类预测研究(Matlab代码实现)
【故障识别】基于CNN-SVM卷积神经网络结合支持向量机的数据分类预测研究(Matlab代码实现)
481 0
|
9月前
|
机器学习/深度学习 人工智能 PyTorch
零基础入门CNN:聚AI卷积神经网络核心原理与工业级实战指南
卷积神经网络(CNN)通过局部感知和权值共享两大特性,成为计算机视觉的核心技术。本文详解CNN的卷积操作、架构设计、超参数调优及感受野计算,结合代码示例展示其在图像分类、目标检测等领域的应用价值。
524 7
|
8月前
|
数据采集 存储 数据可视化
Python网络爬虫在环境保护中的应用:污染源监测数据抓取与分析
在环保领域,数据是决策基础,但分散在多个平台,获取困难。Python网络爬虫技术灵活高效,可自动化抓取空气质量、水质、污染源等数据,实现多平台整合、实时更新、结构化存储与异常预警。本文详解爬虫实战应用,涵盖技术选型、代码实现、反爬策略与数据分析,助力环保数据高效利用。
444 0
|
8月前
|
安全 Linux
利用Libevent在CentOS 7上打造异步网络应用
总结以上步骤,您可以在CentOS 7系统上,使用Libevent有效地构建和运行异步网络应用。通过采取正确的架构和代码设计策略,能保证网络应用的高效性和稳定性。
227 0
|
10月前
|
监控 安全 Linux
AWK在网络安全中的高效应用:从日志分析到威胁狩猎
本文深入探讨AWK在网络安全中的高效应用,涵盖日志分析、威胁狩猎及应急响应等场景。通过实战技巧,助力安全工程师将日志分析效率提升3倍以上,构建轻量级监控方案。文章详解AWK核心语法与网络安全专用技巧,如时间范围分析、多条件过滤和数据脱敏,并提供性能优化与工具集成方案。掌握AWK,让安全工作事半功倍!
376 0
|
10月前
|
机器学习/深度学习 数据采集 监控
基于CNN卷积神经网络和GEI步态能量提取的步态识别算法matlab仿真,对比不同角度下的步态识别性能
本项目基于CNN卷积神经网络与GEI步态能量提取技术,实现高效步态识别。算法使用不同角度(0°、45°、90°)的步态数据库进行训练与测试,评估模型在多角度下的识别性能。核心流程包括步态图像采集、GEI特征提取、数据预处理及CNN模型训练与评估。通过ReLU等激活函数引入非线性,提升模型表达能力。项目代码兼容Matlab2022a/2024b,提供完整中文注释与操作视频,助力研究与应用开发。
|
10月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于WOA鲸鱼优化的TCN-GRU时间卷积神经网络时间序列预测算法matlab仿真
本内容包含时间序列预测算法的相关资料,涵盖以下几个方面:1. 算法运行效果预览(无水印);2. 运行环境为Matlab 2022a/2024b;3. 提供部分核心程序,完整版含中文注释及操作视频;4. 理论概述:结合时间卷积神经网络(TCN)与鲸鱼优化算法(WOA),优化TCN超参数以提升非线性时间序列预测性能。通过因果卷积层与残差连接构建TCN模型,并用WOA调整卷积核大小、层数等参数,实现精准预测。适用于金融、气象等领域决策支持。

热门文章

最新文章