上海交通大学王宇光:几何深度学习和图神经网络的研究进展和趋势

简介: 上海交通大学王宇光:几何深度学习和图神经网络的研究进展和趋势

以下为王宇光在机器之心 AI 科技年会上的演讲内容,机器之心进行了不改变原意的编辑、整理:


大家下午好,我是上海交大自然科学研究院的王宇光。今天主要给大家介绍一下几何深度学习和图神经网络的研究进展,以及未来的技术趋势。


我们知道几何深度学习是用于处理不同对象的深度神经网络,其结构和传统 CNN 相似,只是处理的对象发生了变化。


传统 CNN 处理的可能是图片数据,在数学上是由格点像素值组成的平面 2D 数据,如果有多个 channel 则可能是张量数据,但往往不考虑像素之间的相互关系,不考虑各个格点之间的相互连接。而几何深度学习的重要数据对象是图结构数据或者更广义的 3D 点云数据等,结构数据区别于原始图片数据的一个重要特点是不仅有节点(节点对应原来图片的像素),还有节点之间的相互连接。以经典的图结构——分子数据结构为例,分子由原子构成,原子可以看作图的节点,原子之间的化学键可以看作图中边的权值,这就构成了图结构数据。这种数据结构广泛存在于应用中,图结构数据比图片数据多考虑了节点之间的连接。


对于图分类问题或回归问题,各个样本的尺寸和结构可能是不尽相同的,这就导致传统 CNN 方法不适用于新型图结构数据的学习、预测任务。


几何深度学习实际上是这几年才发展起来的,特别是从 2021 年开始大家才广泛关注几何深度学习和图神经网络,因为 2021 年 AlphaFold 实现了对蛋白质结构的准确预测,准确率可以达到 95% 以上。这样高精度而且非常快速的预测工具,是基于一些几何深度学习的模块。这项工作被 Science 评为 2021 年十大科学进展之最。图神经网络广泛应用于其他领域,例如它对一些数学定理的证明或发现起到了很好的作用,特别是去年发表在 Nature 上的一个用 GNN 辅助科学证明的算法,由 DeepMind 与几位科学家合作完成,引起了数学圈很大的轰动。


深度学习理论,特别是关于几何深度学习和图神经网络的理论,和传统深度学习理论比较类似,研究重点主要包括以下几个方面:


深度学习的表达能力,涉及到很多的数学理论,当然也可能涉及一些物理的解释;

例如,学习理论、调和分析、统计学对于研究深度学习的泛化能力非常重要;

深度学习主要依赖于反向传播算法,所以最优化理论也是一个重要的研究工具;

一些特别有效的算法的设计基本原理,也依赖于诸多数学理论。


图神经网络是几何深度学习的一部分,研究具有结构属性、拓扑性质的数据的学习和预测任务。图神经网络的每一个特征提取层都会对节点的特征和连接的特征进行更新,这种更新模式被叫作消息传递模式。


消息传递模式指的是要更新某一个点的特征,需要考虑周边和它相连的点的特征,这里就要用到推进函数。推进函数通常是由一个网络对节点和周边节点关系的刻画。然后用另一个网络整合周边节点信息,接着加和到这个节点本身的特征中,这两步更新模式就构成了一个基本的消息传递模式。



图神经网络特征提取模块可以写成图卷积的模式,与传统的 CNN 卷积类似,只不过在图上定义卷积不如 CNN 直观,不能用空间域窗口的方式平移得到,但是可以仿照傅里叶卷积的模式,定义图卷积的模块。这种卷积被证明和传统 CNN 具有相似的特征提取功能,共享了参数,并保持了重要的图结构性质,从而在图神经网络的学习中起到了很好的特征提取作用。其中一个很重要的模块是由谱图神经网络衍生出来的经典 GCN 模型,如果写成谱图的形式就是 Laplacian 正则化的过程。



如果我们想设计更好的,具有更强的鲁棒性或者更好抗噪能力的 GNN,可以在正则化中再做一个更新,比如说引入一些小波变换、L1 正则等。事实上人们设计了一些具有多尺度多层分析能力的图卷积模块,并且引入了 Shrinkage 技术等对信号进行过滤、对数据进行压缩,这些在实践中都得到了比较好的验证。



但图神经网络有时候还不够用,因为随着任务的复杂,特别是涉及复杂系统、海量数据的研究或者高阶任务的预测(例如轨迹预测等新型任务),传统的图神经网络还不够。


人们又考虑是不是能够在图学习中利用更多的拓扑信息或结构信息,因此就导出了一种超越神经网络的单纯复形网络的消息传递模式,主要克服了图神经网络的三个缺陷。第一是图神经网络在建模多个节点相互作用的时候并没有那么有效;第二是在检测高阶结构(比如二阶拓扑结构)时,图神经网络由于只考虑了关系,即连接节点的边而并没有考虑环或者面的信息和特征,因此 GNN 不能完成高阶任务;第三是不能有效地处理高阶信号,例如预测从某一点到另一点的轨迹信息。



单纯复形网络和传统的消息传递模式很类似,只不过在传递的过程中不仅考虑了两个节点之间边的连接,还考虑了高阶结构(比如三角形或多边形)中的拓扑结构。把这些加入到消息传递模式中,就形成了单纯复形消息传递模式。




这样的模式可以更好地完成一些复杂任务,而且事实证明它们的表达能力比传统的图神经网络更强。在一些特殊任务(例如轨迹预测任务)上,同等条件下比图神经网络的效果好很多。


关于未来的趋势有很多个角度可以讲,这里稍微列几个大家可能感兴趣或者比较重要的方向。


首先,图神经网络原来是一个图结构数据,是一种离散化的结构,但是数学工具往往是坐落在连续空间上的,所以近来大家考虑将微分几何的一些方法引入到 GNN 中,包括新型等变 GNN 的架构,利用对称性等工具,以更好地理解和利用深度学习模型中图结构性质的不确定性。


这里有一些值得关注的点,包括利用对称性形成更有效的学习模型;应用最优传输的思想;在表示学习中使用微分几何的一些概念,特别是人们对理解关系数据的几何,并利用这些见解学习欧氏几何或非欧几何的表示有很浓厚的兴趣。由此产生了许多采用特定几何进行编码的架构,比如一种利用双曲几何的 GNN 模型,由 2019 年首次引入,最近又有了新的进展。此外,过去一年里提出了大量涉及双曲几何的新型模型和架构,以捕获更复杂的图数据中的结构特征。另一个思路则是利用等方差或者对称形式的几何信息构建图神经网络。


离散微分几何也被用于深入了解图神经网络的设计和解释,曲率的离散概念可以表征离散结构的局部和全局的几何特性。图神经网络往往会有过度挤压的效应,因为节点之间有相互连接所以信息传递比普通的 CNN 要快。最近一些专家提出了一些基于曲率的图学习解释方法,用曲率刻画过度挤压的效率,这在图神经网络中是非常重要的任务。另外,有研究利用里奇曲率提出了一种减轻图神经网络挤压效应的新方法。未来,离散曲率可能会和图机器学习中的其他结构或拓扑问题相关联,这个课题也将继续影响该领域,并进入更多应用领域。



这些改进有望推动计算方面的进步。由于借鉴传统的欧氏空间数据的表示学习思路来降低非欧空间的算法复杂度。例如,采用离散曲率几何工具的计算成本往往是很高的,难以将它们集成到大规模的应用程序之中。因此,人们将提出一些先进的计算方法和专业化的软件包来使这种几何思想更容易为从业者所接受。



上述消息传递模式将成为一种主要范式。2021 年的时候牛津大学 (University of Oxford) 的 Michael Bronstein 预测说图机器学习进步需要脱离来自于 2020 年以及之前主导该领域消息传递的思路。不过在 2021 年的时候,这个预言只实现了一部分,在接下来的研究中预计会进一步发展。其中有一种思路是消息传递模式可以引入子图神经网络,子图结构能够对特征进行更有效的刻画,子图神经网络有望突破限制。该方法的思路是将图表示成子结构的集合,这个想法可以追溯到 1960 年代的图重构猜想,现在图神经网络将让它重新焕发生机,学者们认为子图 GNN 和相应的重构猜想会是未来一个主要的研究方向。


2021 年以来还有一个新的趋势是将微分方程引入神经网络。2021 年有研究通过物理系统的动力学重新设计图学习模型,其中的动力学往往由微分方程来表达。另外,图神经网络还可以与微分方程的求解方式相结合,偏微分方程可以对图上信息的传播进行建模,很多标准的图神经网络架构可以看作是求解微分方程的数值迭代解,这个和 2019 年 NeurlPS 上的最佳论文 Neural ODE 的思想很像,将偏微分方程用于图形网络可能会产生一些新的突破。


这种对连续对象离散化的方法带来了令人耳目一新的效果,让图神经网络能够为下游机器学习任务提取更有益的信息,并将焦点从支持一种信息转移到支持图结构信号计算的模式上。特别是 2022 年使用图作为一种机制来执行本地化的连贯计算将成为一种新的趋势,这种新想法在数据集上会交换有关的数据信息,并将其用作数据的整体属性归零的机制,这是一条有益的途径。


图神经网络还受到信号处理、神经科学、物理学思想的启发,获得了新的灵感。很多人认为图信号处理将重新点燃人们对图机器学习的兴趣,并提供一套数学工具,比如广义傅里叶变换,即图上的傅里叶变换,或图上的小波变换等。经典的信号处理和物理学所依赖的基本技术(比如表示论),在图神经网络上的应用已经于 2021 年取得了一些重要进展,并且仍有很多开发空间。经典的线性变换、傅里叶变换、小波变换的吸引人之处在于提供了一种具有数学属性的通用隐式空间 (latent space) 和完备的数据表示,比如平滑信号具有低频傅里叶系数,而分段平滑信号具有稀疏和局部的小波系数。过去有构建线性变换来揭示信号特性的传统,特别是有些物理学家在设计基于群作用下的不同对称性的等变变换方面,会采用仿射群的连续小波变换等,这些技术都有可能用到图机器学习或几何深度学习里。



并且有研究人员预计构建结构化的潜在空间的趋势将在 2022 年继续得到发展,部分是由于应用程序的需求,但也出于交换适应性和可解释性的普遍愿望。例如结构化变换域不是自适应的,但是非常容易读取,而图神经网络将有助于实现两者的平衡。总的来说,受信号处理和神经科学启发的图神经网络将越来越具有市场,也将有越来越多样化的应用(例如基于海量数据的交通预测、智慧城市建设),模拟复杂的物理动力学以及神经数学分析等方面将会起到重要的作用。


在研究更复杂的任务时,例如先前提到的复杂系统建模,可能需要更高阶的拓扑信息来进行模型的训练,甚至需要超越图神经网络。复杂系统的应用也很广,2021 年的物理诺奖颁给了以复杂系统成名的乔治 · 帕里西 (Giorgio Parisi),以表彰他在这方面的研究突破。虽然在基本抽象的层面上,复杂系统通常可以描述为图(graph),但必须考虑更为复杂的结构,例如非成对关系和一些动态行为。2021 年的很多工作都涉及到动态图和动态关系系统的预测,并展示了如何将图神经网络拓展到高阶结构。



2021 年,单纯复形的消息传递模式解决了图神经网络的许多限制,例如检测某些子结构,捕获远程和高阶交互,处理高阶特征和转译 WL 层次的结构。实践中,在分子属性的预测问题以及轨迹追踪问题中都取得了很好的结果。我预计这些方法将在 2022 年扩展为更为激动人心的新应用,比如用于计算大数据拓扑,关系预测和计算机通信学领域的难题中。


动态图也有很多实际的应用,例如新冠传播预测,交通预测,轨迹建模,这些应用往往需要捕获高度结构化的时序数据的复杂动态效应。图机器学习提供了捕获空间依赖性,时间序列之间的交互以及动态相关性的能力,在接下来的研究中应该能够看到时序数据和动态系统结合的想法被用于图神经网络中,也希望这些想法能够产生新的模型设计、训练方法以及对复杂动力机制的严格解释。


另外,推理、公理、泛化在图机器学习中会是比较大的问题。2021 年,由 DeepMind 做出的基于算法推理的图神经网络,能够用于解决一些数学猜想和定理。他们开发与广义贝尔曼 - 福德 (Bellman-Ford) 算法一致的知识图谱推理器,从而利用分布变化显示因果模型来设计图神经网络,这个方向具有很好的前景,而且通用性很强,可以为 GNN 开辟未来,我觉得 2022 年可能会有一些比较好的探索。


图神经网络还有可能和强化学习结合,强化学习是当今人工智能研究中比较突出和活跃的领域之一,通常强化学习中的 agent 或环境表示中都会出现图结构和对称性。2021 年有两个比较相关的重要进展,一个是利用基于注意力机制的图表示来建立强化学习的基准,以提高模型的泛化和迁移能力,这方面已经应用到连续控制、多智能体强化学习和机器人协同作业的复杂任务中。另一个方面,强化学习的应用已经扩展到具有基于图的状态和动态空间的环境场景下,在电网控制、组合优化,以及在图论中寻找反例和解决猜想中都起到了很大的作用。


图可能是将强化学习带入现实世界的一个关键技术,在芯片设计、代码建模、药物发现、AI for science 的科学应用、经济学等诸多领域都是无所不在的。2022 年可能会见证基于强化学习的基准和图结合的寒武纪爆发,这将引领强化学习研究朝着应用的方向发展,并会启发很多基础研究。我期望 2022 年基于 Transformer 和类似的图注意力机制网络的方法,能够与强化学习结合。在不久的将来,图网络等方差、强化学习的组合优化等方面也会有很大的突破,并将在分子设计、网络规划、芯片设计等领域有广泛应用。


特别地,图神经网络广泛用于药物的发现和设计,并且已从图神经网络和 Transformer 的融合中获益不少。GNN 的起源也是来自于计算化学的研究,分子图的分析是 GNN 最流行的应用之一。2021 年该领域持续取得了非常重大的进展,并涌现出数十种新型网络结构和多项基准测试结果。基于图的 Transformer 也倍受瞩目,继承了这些结构在 NLP 中的优点。GNN 和 Transformer 相结合应用到药物研发或其他分子预测任务中,能够起到跨任务、加强泛化能力的作用。



人工智能驱动的药物发现也越来越多地使用几何和图神经网络的学习,AlphaFold 和分子图神经网络的成果让我们离 AI 设计新药的梦想更近了一步,特别是 Alphabet 新子公司 Isomorphic Labs 的成立表明了业界对这项技术寄予厚望。其中,利用 AI 模 拟分子的相互作用成为实现这些目标而必须跨越的重要前沿课题。这可能是未来的一个趋势,因为现在只能预测分子的一些固定结构,不能很好预测分子之间的相互作用,或者是多个粒子之间的相互作用。另外,基于细胞图(cell graph)的 GNN 在软物质(或凝聚态物理)研究中的应用将进一步发展。


最后,我简单介绍一下图神经网络与量子机器学习的结合。量子机器学习对领域内大多数研究者来说仍是一个奇特的设想,但随着量子计算硬件的出现,它已经迅速成为可能的现实。最近,Alphabet X 公司展示了量子机器学习架构中图结构归纳偏差的优势。2022 年,扩展图量子机器学习将是一个激动人心的研究方向,将探索图之外的几何深度学习理论的量子版本。量子物理系统通常具有丰富的群对称性,这些对称性已被广泛地纳入到几何深度学习的研究中。这些群对称性也可用于量子架构的设计,从而进一步提高我们使用量子计算机对此类系统进行生成建模的能力。


我今天的介绍就到这里,谢谢大家。


相关文章
|
15天前
|
机器学习/深度学习 人工智能 算法
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
96 29
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
|
5天前
|
机器学习/深度学习 算法 PyTorch
基于图神经网络的大语言模型检索增强生成框架研究:面向知识图谱推理的优化与扩展
本文探讨了图神经网络(GNN)与大型语言模型(LLM)结合在知识图谱问答中的应用。研究首先基于G-Retriever构建了探索性模型,然后深入分析了GNN-RAG架构,通过敏感性研究和架构改进,显著提升了模型的推理能力和答案质量。实验结果表明,改进后的模型在多个评估指标上取得了显著提升,特别是在精确率和召回率方面。最后,文章提出了反思机制和教师网络的概念,进一步增强了模型的推理能力。
22 4
基于图神经网络的大语言模型检索增强生成框架研究:面向知识图谱推理的优化与扩展
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解深度学习中的卷积神经网络(CNN)##
在当今的人工智能领域,深度学习已成为推动技术革新的核心力量之一。其中,卷积神经网络(CNN)作为深度学习的一个重要分支,因其在图像和视频处理方面的卓越性能而备受关注。本文旨在深入探讨CNN的基本原理、结构及其在实际应用中的表现,为读者提供一个全面了解CNN的窗口。 ##
|
16天前
|
机器学习/深度学习 人工智能 算法
深度学习入门:用Python构建你的第一个神经网络
在人工智能的海洋中,深度学习是那艘能够带你远航的船。本文将作为你的航标,引导你搭建第一个神经网络模型,让你领略深度学习的魅力。通过简单直观的语言和实例,我们将一起探索隐藏在数据背后的模式,体验从零开始创造智能系统的快感。准备好了吗?让我们启航吧!
42 3
|
20天前
|
机器学习/深度学习 数据采集 传感器
基于深度学习的图像识别技术在自动驾驶中的应用研究####
本文旨在探讨深度学习技术,特别是卷积神经网络(CNN)在自动驾驶车辆图像识别领域的应用与进展。通过分析当前自动驾驶技术面临的挑战,详细介绍了深度学习模型如何提升环境感知能力,重点阐述了数据预处理、网络架构设计、训练策略及优化方法,并展望了未来发展趋势。 ####
73 6
|
24天前
|
机器学习/深度学习 自然语言处理 语音技术
Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧
本文介绍了Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧,并通过TensorFlow和PyTorch等库展示了实现神经网络的具体示例,涵盖图像识别、语音识别等多个应用场景。
48 8
|
25天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络(CNN): 从理论到实践
本文将深入浅出地介绍卷积神经网络(CNN)的工作原理,并带领读者通过一个简单的图像分类项目,实现从理论到代码的转变。我们将探索CNN如何识别和处理图像数据,并通过实例展示如何训练一个有效的CNN模型。无论你是深度学习领域的新手还是希望扩展你的技术栈,这篇文章都将为你提供宝贵的知识和技能。
77 7
|
22天前
|
机器学习/深度学习 自然语言处理 算法
深入理解深度学习中的卷积神经网络(CNN)
深入理解深度学习中的卷积神经网络(CNN)
30 1
|
22天前
|
机器学习/深度学习 监控 自动驾驶
基于深度学习的图像识别技术研究进展###
本文旨在探讨深度学习在图像识别领域的最新研究进展,重点分析卷积神经网络(CNN)的技术创新、优化策略及其在实际应用中的成效。通过综述当前主流算法结构、损失函数设计及数据集增强技巧,本文揭示了提升模型性能的关键因素,并展望了未来发展趋势。尽管未直接涉及传统摘要中的研究背景、方法、结果与结论等要素,但通过对关键技术点的深度剖析,为读者提供了对领域现状与前沿动态的全面理解。 ###
|
28天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络(CNN)及其在图像识别中的应用
本文旨在通过深入浅出的方式,为读者揭示卷积神经网络(CNN)的神秘面纱,并展示其在图像识别领域的实际应用。我们将从CNN的基本概念出发,逐步深入到网络结构、工作原理以及训练过程,最后通过一个实际的代码示例,带领读者体验CNN的强大功能。无论你是深度学习的初学者,还是希望进一步了解CNN的专业人士,这篇文章都将为你提供有价值的信息和启发。
下一篇
DataWorks