Twitter团队最新研究:快速高效的可扩展图神经网络SIGN

简介: Twitter团队最新研究:快速高效的可扩展图神经网络SIGN

image.png

今天给大家介绍的是Twitter研究团队发表的一篇论文,该研究针对大规模图神经网络训练的问题,提出的一种新的结构更加简单的模型——SIGN,这种模型的提出使得计算复杂度大大降低,能够有效地处理大规模图结构,在多个开放的数据集上与主流的模型进行评估对比,SIGN更具有竞争优势。


1


背景


在图上进行的深度学习,也称为几何深度学习(GDL)或者图表示学习(GRL),在短短几年的时间就从最初的籍籍无名发展成为机器学习最突出的领域之一。图深度学习模型在各种不同的领域都非常成功,其中包括社交网络链路预测、社交媒体虚假新闻预测、人物交互、粒子物理、药物重定位、发现抗癌食品等。但是通常越简单的结构在许多应用中越能发挥重要作用,特别是图卷积网络(GCN)。图卷积网络旨在将CNN推广到图结构数据中,目前已经在图上开发了很多类似卷积运算的模型,例如第一代图卷积网络模型-频谱图卷积神经网络(Spectral graph CNNs),基于切比雪夫多项式的ChebNet等。而目前的研究主要集中在小规模数据集上,对于能够扩展到例如Facebook、Twitter等大规模社交网络图上的模型研究相对较少。解决大规模数据集已经成为GNN广泛应用的一个主要挑战。对于普通的神经网络而言,损失函数通常都能够拆分到每一个观测样本上面,实现并行计算,而GNN每一个节点的损失都依赖于其他节点的信息,并且节点邻居的数量往往是随度数的增加呈现指数级增长的,从而导致计算量大和存储困难等缺点。目前是通过图采样的方法来降低训练GNN的成本,譬如GraphSAGE、ClusterGCN和GraphSAINT等,但是图采样技术会引起损失。


在这篇文章中,作者提出了一种新的可推广至大规模图结构的模型——SIGN(Scalable Inception Graph Neural Networks),并且这个模型在设置不同值的情况下还能扩展为GCN、S-GCN、ChebNet等模型。这种思想受到Inception网络的启发,预先设置不同大小的卷积核,可以很快地进行训练和推理。尽管这种新型结构简单,但是在大规模图数据集上不仅可与目前性能最佳的模型相媲美,而且显著加快了训练速度。


2


相关工作


(1)符号说明

image.png

image.png

3)图采样


传统的图卷积神经网络算法,如GCN、GAT、MoNet等在面对大型图时都是无法使用的,Graph sampling(图采样)对应规模较大的图取得了一定的成功,Graphsampling主要分为Node-wise sampling(如GraphSAGE)、Layer-wise sampling和Graph-wise sampling(如目前的state-of-art方法GraphSAINT)。


3


模型


首先SIGN并不是基于采样的模型,因为采样会产生误差,而是从最近的两个发现中获得的灵感:(1)S-GCN模型虽然很简单,但是很有效,并且与具有多个卷积层的模型有相似的效果。(2)GCN聚合机制具有简单的卷积核,但是在精度上却和基于更复杂聚合函数的模型相媲美。据此,SIGN模型如下所示:

image.pngimage.png

更为巧妙的是,这个模型高度概括了ChebNet, GCN, and S-GCN这些特况,譬如将激活函数设置为如下形式

image.png

则只需改变公式中的一些值,就可以进行推广。具体的值设置如下:

image.png

下表是SIGN模型和目前的主流算法在时间复杂度上的比较:

image.png

4


实验


作者先在四个大型公开数据集进行实验:Reddit,Flickr,Yelp和PPI。在Reddit和Flickr数据集上研究节点多分类问题:前者的任务是根据用户评论预测在线帖子的社区;Flickr是基于在线图像的描述和共同属性对图像进行分类。Yelp和PPI是多标签分类问题:前者的目的是根据客户评论来预测业务属性,而后者的任务则是从人体组织蛋白的相互作用中预测蛋白质功能。具体的数据集如下表所示:

image.png

作者将SIGN和GCN,FastGCN,Stochastic-GCN,AS-GCN,GraphSAGE等七种方法进行了比较。下表是在四个大型数据集上比较的结果:

image.png

这里在10次迭代中计算出的F1得分平均值和标准差。能够看出在Reddit上SIGN具有最先进的性能,同时在其他数据集上也始终保持竞争优势。

下表是SIGN模型和目前的主流算法在Reddit数据集上训练时间的比较

image.png

尽管在预处理阶段它比GraphSAINT稍慢,但SIGN花费的时间只是一小部分,比GraphSAINT和GraphSAGE高出两个数量级。整个程序是在Pytorch中进行的,但GraphSAINT3和ClusterGCN4的实现是在Tensorflow中的,是比PyTorch快六倍的并且GraphSAINT的预处理是并行的,但是作者的不是。


其次尽管作者的目标是大型图,也尝试了较小但优良的转导数据集,以将SIGN与传统GNN方法进行比较。比较结果如下表所示:


image.png

image.png

试验结果表明SIGN在较小的数据集上也具有竞争力,其性能优于经典方法,并且与当前的最新方法(DIGL)接近。


5


总结


SIGN的特点在于模型的简单性、高效性、适合大规模图结构。因此,SIGN非常适合于工业化的大型系统。这种模型在通用图学习基准上获得了竞争性结果,同时与其他方法相比,其训练速度明显加快,推理速度提高了两个数量级,同时适用于转导学习和归纳学习,而且都取得了较大的进步。


目录
相关文章
|
16天前
|
缓存 负载均衡 网络协议
|
1月前
|
Java 应用服务中间件
面对海量网络请求,Tomcat线程池如何进行扩展?
【10月更文挑战第4天】本文详细探讨了Tomcat线程池相较于标准Java实用工具包(JUC)线程池的关键改进。首先,Tomcat线程池在启动时即预先创建全部核心线程,以应对启动初期的高并发请求。其次,通过重写阻塞队列的入队逻辑,Tomcat能够在任务数超过当前线程数但未达最大线程数时,及时创建非核心线程,而非等到队列满才行动。此外,Tomcat还引入了在拒绝策略触发后重新尝试入队的机制,以提高吞吐量。这些优化使得Tomcat线程池更适应IO密集型任务,有效提升了性能。
面对海量网络请求,Tomcat线程池如何进行扩展?
|
3月前
|
机器学习/深度学习 数据可视化 数据挖掘
【Macos系统】安装VOSviewer及使用VOSviewer教程!!以ESN网络的研究进行案例分析
本文介绍了如何在MacOS系统上安装VOSviewer软件,并以ESN(Echo State Network)网络的研究为例,通过VOSviewer对相关科学文献进行可视化分析,以深入了解ESN在学术研究中的应用和发展情况。
260 0
【Macos系统】安装VOSviewer及使用VOSviewer教程!!以ESN网络的研究进行案例分析
|
3月前
|
缓存 网络协议 Linux
扩展Linux网络栈
扩展Linux网络栈
75 3
|
4月前
|
存储 传感器 监控
智慧养殖的智慧网络:构建高效、可扩展的养殖生态
智慧养殖,在国家政策的大力扶持和农业数字化浪潮的推动下,正迅速发展。然而,许多人对它的价值仍持怀疑态度:认为智慧养殖只是昂贵的技术堆砌,短期内看不到经济回报,甚至怀疑其实用性。本文将挑战这些观点,展示智慧养殖如何通过技术整合提高效率、降低成本,并探讨如何克服网络稳定性和速度等技术障碍,引领养殖企业走向高效、经济的现代化转型。
275 22
|
4月前
|
域名解析 安全 物联网
阿里云EMAS HTTPDNS 扩展全球服务节点:提升解析安全性与网络覆盖
阿里云EMAS HTTPDNS新增国内西南、华南及国际欧洲、美东服务节点,提升了全球覆盖能力与性能。作为高效域名解析服务,EMAS HTTPDNS针对互联网、汽车、物流、IOT等行业提供支持,解决了传统解析易遭劫持等问题。新增节点优化了就近调度功能,显著缩短响应时间并增强了服务稳定性和连续性,尤其为中国企业的海外业务提供了强有力的支持。此次扩展展现了阿里云对服务质量的持续追求和全球市场布局的战略思考。
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
Transformer 能代替图神经网络吗?
Transformer模型的革新性在于其自注意力机制,广泛应用于多种任务,包括非原始设计领域。近期研究专注于Transformer的推理能力,特别是在图神经网络(GNN)上下文中。
96 5
|
4月前
|
机器学习/深度学习 搜索推荐 知识图谱
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响
【7月更文挑战第22天】北大港大联手打造SelfGNN,一种结合图神经网络与自监督学习的推荐系统,专攻信息过载及数据噪声难题。SelfGNN通过短期图捕获实时用户兴趣,利用自增强学习提升模型鲁棒性,实现多时间尺度动态行为建模,大幅优化推荐准确度与时效性。经四大真实数据集测试,SelfGNN在准确性和抗噪能力上超越现有模型。尽管如此,高计算复杂度及对图构建质量的依赖仍是待克服挑战。[详细论文](https://arxiv.org/abs/2405.20878)。
80 5
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
|
4月前
|
机器学习/深度学习 编解码 数据可视化
图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比
目前我们看到有很多使用KAN替代MLP的实验,但是目前来说对于图神经网络来说还没有类似的实验,今天我们就来使用KAN创建一个图神经网络Graph Kolmogorov Arnold(GKAN),来测试下KAN是否可以在图神经网络方面有所作为。
188 0

热门文章

最新文章