Deepmind最新研究:从图表示学习看算法推理

简介: 在上周三ICLR 2020大会中,来自Deepmind的研究人员Petar Veličković介绍了用算法推理的图表示学习最新研究。该研究提出了主要邻域聚合(PNA),并通过实践证明了使用多个聚合策略同时提高了GNN的表现力。

微信图片_20220109000550.jpg


由于图的不规则性,传统的深度学习算法在处理复杂的图时面临着巨大的挑战。

 

近年来,人们对深度学习方法在图上的扩展有着浓厚的兴趣,由此一个新的研究热点——图神经网络(GNN)应运而生。图神经网络在算法推理能力上有着不可估量的潜力,甚至有望成为下个AI拐点。

 

上周的ICLR 2020大会中,来自Deepmind的研究人员Petar Veličković主要介绍了用于算法推理的图表示学习最新研究。

      微信图片_20220109000552.png

 

图表示学习


GNN 的出现,给图表示学习带来了新的建模方法。图表示学习是深度学习的一个方向,是一种无监督学习,其核心是研究图数据的表示。以 DeepWalk、LINE 和 node2vec 为代表的图表示学习技术得到广泛地应用。

 

为什么我们要通过图来表示学习?是因为很多数据都是图结构,例如社交网络、经济网络、生物医学网络、信息网络、互联网、神经网络等。


微信图片_20220109000554.png


图数据中蕴含着丰富的结构信息,然而因其内在关联而产生的一种非线性结构,在补充刻画数据时,给数据学习带来了巨大挑战。因此,图表示学习此就会发挥巨大的作用。


它具有两个重要作用,一是将图数据表示成线性空间中的向量;二是为之后的学习任务奠定基础。          

 

GNN表现力不够强

 

图神经网络(GNN)在过去十年中一直是活跃的研究领域,同时图表示学习取得了巨大的突破。但是,由于缺乏标准化的基准和表现力的理论框架,新型图神经网络的有效性很难让人理解


实际上,该领域的大多数工作都集中在改进一组图形基准上的GNN架构,而没有评估其网络能否正确表示图的结构特性。


直到最近,才有关于各种GNN模型表现力的重大研究,主要集中在同构任务和可数特征空间上。但是,这些主要侧重于区分不同的图形拓扑能力上,而在了解它们能否捕获并利用图结构的基础特征上所做的工作很少。

 

或者一些工作侧重于使用光谱域将卷积神经网络(CNN)推广到图形,这是Bruna等人首先提出的。为了提高光谱分析效率和改善模型的性能,Chebyshev多项式诞生,后来推广到Cayley滤波器。

 

在本文研究工作中,研究人员着眼于不同GNN模型理解光谱分解某些方面的能力,即拉普拉斯图和光谱半径,因为它们构成了图的光谱特性的基本方面。虽然光谱特性和滤光片没有在此次的架构中明确编码,但功能强大的GNN仍然能够有效地学习。

 

研究发现:主要邻域聚合(PNA)

 

先前经典图论工作着重于评估GNN模型在单个任务上应用的性能,如最短路径,图矩或旅行商问题。

 

而本文研究者们采用了不同的方法开发多任务基准,同时包含节点级和图形级的问题。他们还特别观测了每个GNN预测单源最短路径,离心率,拉普拉斯特征的能力,连通性,直径和光谱半径。其中许多任务基于使用动态算法编程,因此非常适合于GNN的研究。

 

Petar表示,「我们相信这项多任务方法可确保GNN能够同时理解多种特性,这是解决复杂图形问题的基础。而且,任务间有效地共享参数,表明了其对图形的结构特征有更深入的了解。此外,我们通过在更大尺寸的图形上进行测试来探索网络的泛化能力存在于训练集中。」

 

      微信图片_20220109000556.png


使用单个GNN层和连续输入要素空间,一些聚合器无法区分邻域消息。同时研究还发现聚合器是互补的,至少有一个聚合器始终可以区分不同的邻域消息。


通过假设当前的GNN的聚合层从节点邻域进入单层无法提取足够的信息,这限制了它们的表现力和学习能力。实际上,最近的工作表明不同的聚合器在不同的任务上表现更好。由于不能正确识别邻域,同时也无法可靠地找到子结构,GNN并不能很好地学习节点集群。

 

研究者们首先对引入不可数多集注入性问题提出解决方案,从数学上证明对多种聚合的需求。然后,他们提出了标度的概念,作为总聚合概括,它允许网络基于每个节点的程度放大或衰减信号。结合以上内容,研究者又设计了主邻域聚合(PNA)网络,并通过实践证明了使用多个聚合策略同时提高了GNN在图论问题上的性能。

 

Petar把目前现有研究中的CNN算法分为了三个级别 Unit-level, Step-level, Algo-level

 

      微信图片_20220109000558.png   


作者同时分析了GNN的理论框架扩展到了连续的特征,并证明了在这种情况下需要多个聚合器。通过呈现标度来聚合,并建议使用对数标度。


针对以上所有因素,作者提出了一种由多个聚合器和标度组成的「主要邻域聚合」。为了理解GNN捕获图结构的能力,并提出了一种新颖的多任务基准以及用于解决它的编码过程解码结构。


      微信图片_20220109000601.png


使用相同架构和各种接近最佳的超参数的不同GNN模型的多任务基准。图a中PNA模型始终优于最新模型,图b显示PNA的在所有任务表现的更好

 

Petar表示「我们认为,我们的发现构成了建立GNN具有表现力模型层次结构的一步,从这个意义上讲,PNA模型似乎优于GNN层设计中的现有技术。」

 

算法推理是图形表示学习一个令人兴奋的新领域。

 

参考链接:

https://arxiv.org/pdf/2004.05718.pdfhttps://www.reddit.com/r/MachineLearning/comments/gegxuf/graph_representation_learning_for_algorithmic/

相关文章
|
7天前
|
算法 JavaScript 前端开发
第一个算法项目 | JS实现并查集迷宫算法Demo学习
本文是关于使用JavaScript实现并查集迷宫算法的中国象棋demo的学习记录,包括项目运行方法、知识点梳理、代码赏析以及相关CSS样式表文件的介绍。
第一个算法项目 | JS实现并查集迷宫算法Demo学习
|
11天前
|
XML JavaScript 前端开发
学习react基础(1)_虚拟dom、diff算法、函数和class创建组件
本文介绍了React的核心概念,包括虚拟DOM、Diff算法以及如何通过函数和类创建React组件。
15 2
|
2月前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
49 12
|
2月前
|
算法 Java
掌握算法学习之字符串经典用法
文章总结了字符串在算法领域的经典用法,特别是通过双指针法来实现字符串的反转操作,并提供了LeetCode上相关题目的Java代码实现,强调了掌握这些技巧对于提升算法思维的重要性。
|
2月前
|
算法 NoSQL 中间件
go语言后端开发学习(六) ——基于雪花算法生成用户ID
本文介绍了分布式ID生成中的Snowflake(雪花)算法。为解决用户ID安全性与唯一性问题,Snowflake算法生成的ID具备全局唯一性、递增性、高可用性和高性能性等特点。64位ID由符号位(固定为0)、41位时间戳、10位标识位(含数据中心与机器ID)及12位序列号组成。面对ID重复风险,可通过预分配、动态或统一分配标识位解决。Go语言实现示例展示了如何使用第三方包`sonyflake`生成ID,确保不同节点产生的ID始终唯一。
go语言后端开发学习(六) ——基于雪花算法生成用户ID
|
2月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
34 4
|
2月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
74 3
|
2月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-综述】基于脑启发的连续学习算法有哪些?附思维导图
这篇博客文章总结了连续学习的分类,包括经典方法(重放、正则化和稀疏化方法)和脑启发方法(突触启发、双系统启发、睡眠启发和模块化启发方法),并讨论了它们在解决灾难性遗忘问题上的优势和局限性。
30 2
|
3月前
|
数据采集 编解码 人工智能
破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍
【7月更文挑战第19天】DeepMind的JEST算法革新AI训练,提升效率13倍,节能10倍。通过联合数据批次选择,预训练指导及多分辨率训练,优化资源利用,降低能耗。实验显示性能提升,达到SOTA水平,但实施需大量资源,依赖优质参考模型。[论文链接](https://arxiv.org/pdf/2406.17711)
58 10
|
3月前
|
人工智能 边缘计算 算法
破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍
【7月更文挑战第20天】DeepMind unveils Switch Transformer, revolutionizing AI energy consumption. This novel algorithm boosts training efficiency by 13x and slashes energy use by 10x compared to ChatGPT, marking a significant leap towards eco-friendly AI.
40 2
下一篇
无影云桌面