MPNN:消息传递神经网络

简介: MPNN:消息传递神经网络

论文标题:Neural Message Passing for Quantum Chemistry


论文链接:https://arxiv.org/abs/1704.01212


论文来源:ICML 2017


一、概述


近年来,随着量子化学计算和分子动力学模拟等实验的展开产生了巨大的数据量,大多数经典的机器学习技术都无法有效利用目前的数据。而原子系统的对称性表明,能够应用于网络图中的神经网络也能够应用于分子模型。所以,找到一个更加强大的模型来解决目前的化学任务可以等价于找到一个适用于网络图的模型。


本文的目标是证明:能够应用于化学预测任务的模型可以直接从分子图中学习到分子的特征,并且不受到图同构的影响。本文提出的MPNN是一种用于图上监督学习的框架,能够概括之前一些文献提出的一些方法,并且能够按照这个框架提出一些新的架构。本文提出的新的MPNN变种基于实际的应用场景:预测有机小分子的量子力学性质。并且,作者希望以后提出的新的MPNN变种能够从实际的应用出发,从实际应用中获得启发。


本文以QM9作为benchmark数据集,这个数据集由130k个分子组成,每个分子有13个性质,这些性质是通过一种计算昂贵的量子力学模拟方法(DFT)近似生成的,相当于13个回归任务。这些任务似乎代表了许多重要的化学预测问题,并且目前对许多现有方法来说是困难的。


本文提出的模型的性能度量采用两种形式:


①DFT近似的平均估计误差;


②化学界已经确立的目标误差,称为“化学精度”。


二、消息传递神经网络


WHL`PTJ_NXM9@L6MR_83R$R.png


  1. Convolutional Networks for Learning Molecular Fingerprints, Duvenaud et al. (2015)


本文提出的模型采用的消息函数是:


E~~Z1[3}E2@RH)73C6CFGE7.png


  1. Gated Graph Neural Networks (GG-NN), Li et al.(2016)


消息函数为:


20220608075801.png


  1. Interaction Networks, Battaglia et al. (2016)


L589J1@)HM24B[ZOO4SY0`4.png


  1. Molecular Graph Convolutions, Kearnes et al. (2016)


这个模型与之前的MPNNs稍微有一些不同,是因为它引入了边的表示FB[D9B16B[VPNY$68MMO`)W.png,并且会在消息传递阶段进行更新。消息函数为:


)DRSIN}G4S)44QZUL@29YIH.png


  1. Deep Tensor Neural Networks, Sch¨utt et al. (2017)


消息函数为:


TEV5AJN1EXOKVEL~@E56JO9.png


  1. Laplacian Based Methods, Bruna et al. (2013); Deffer�rard et al. (2016); Kipf & Welling (2016)


8篇文献中有3篇属于这一类。其中两篇采用消息函数:


XY}_XB59U$R0S9S_[H`H`JY.png


三、MPNN变种


20220608080033.png


  1. 消息函数

IG75WFXG05ZXDOT)6V{6O6H.png


  1. 虚拟图形元素


本文探索了两种方式来改变模型中信息的传递。第一种是为未连接的节点对添加一个单独的“虚拟”边类型。这一处理可以在预处理时实现,效果是可以使得在传播过程中让信息传播更远的距离。

另一种方式是添加一个“master”节点,让它通过一种特殊类型的边与所有节点连接。“master”节点充当全局暂存空间,每个节点在消息传递的每个步骤中都对其进行读写操作。另外“master”节点拥有单独的节点维度`[ZZE_{NJENZ~1Q(O4L_1_F.png,以及内部更新函数(实验中是GRU)的单独权重。这同样可以使得在传播过程中让信息传播更远的距离。这样可以允许模型有更大的容量,同时也不会过多的损失效率,其复杂度为[{Y$O~~BOSMEPK[VIP}U0P6.png


  1. 读出函数


XKQY{]1O~{S5_70}D6PJC08.png


  1. Multiple Towers


RX7~O}7ZDXI7ZYDI81O(2XB.png


四、输入表示


一个分子有很多特征,如下图所示:


$}G}7$G)%LV6]$GQE5~8YY6.png

                                                分子特征


边的特征包括化学键与距离,因此有以下三种表示方式:


①化学图(Chemical Graph):在不考虑距离的情况下,邻接矩阵的值是离散的键类型:单键,双键,三键或芳香键;


@IFMCFLEF4V~{KV78(TLP$T.png


③原始距离特征(Raw distance feature):也可以同时考虑距离和化学键的特征,这时每条边都有自己的特征向量,此时邻接矩阵的每个实例都是一个 5 维向量,第一维是距离,其余4维是一个独热向量,代表4种不同的化学键。


五、实验


实验中对比了本文提出的方法与现有的方法:


1PCSF81{EFUF_U0I@EV_%28.png

                                                    对比


以下为不考虑空间信息的结果:


 CLQ%VQOWLI{BPZ}M{8)C}1C.png

                                             不考虑空间信息


以下为一些消融实验:


9U}G3`C)${WTY3%@7_I6)QF.png

                                                 消融实验


具体实验设置参照原文。

相关文章
|
机器学习/深度学习 设计模式 编译器
图神经网络通用框架 —— MPNN消息传递神经网络
图神经网络通用框架 —— MPNN消息传递神经网络
390 0
图神经网络通用框架 —— MPNN消息传递神经网络
|
11天前
|
机器学习/深度学习 算法 PyTorch
python手把手搭建图像多分类神经网络-代码教程(手动搭建残差网络、mobileNET)
python手把手搭建图像多分类神经网络-代码教程(手动搭建残差网络、mobileNET)
56 0
|
7月前
|
机器学习/深度学习 监控 算法
【tensorflow】连续输入的神经网络模型训练代码
【tensorflow】连续输入的神经网络模型训练代码
|
11天前
|
机器学习/深度学习 自然语言处理 数据可视化
数据代码分享|PYTHON用NLP自然语言处理LSTM神经网络TWITTER推特灾难文本数据、词云可视化
数据代码分享|PYTHON用NLP自然语言处理LSTM神经网络TWITTER推特灾难文本数据、词云可视化
|
2天前
|
机器学习/深度学习 监控 自动驾驶
【传知代码】从零开始搭建图像去雾神经网络-论文复现
本文介绍了基于集成学习的双分支非均匀去雾神经网络的复现,该网络由迁移学习子网和数据拟合子网组成,分别处理全局表示和数据拟合。网络使用Res2Net作为编码器,并结合通道和像素注意力模块。代码可在提供的链接下载。网络在交通监控、自动驾驶、航海和目标跟踪等领域有广泛应用,通过提升图像质量来提高系统性能。实验在O-Haze、I-Haze和NH-Haze数据集上进行,展示了网络在去除雾霾方面的效果,尽管存在细节模糊和色彩饱和度低的问题。
|
2天前
|
机器学习/深度学习 自然语言处理 搜索推荐
【传知代码】图神经网络长对话理解-论文复现
在ACL2023会议上发表的论文《使用带有辅助跨模态交互的关系时态图神经网络进行对话理解》提出了一种新方法,名为correct,用于多模态情感识别。correct框架通过全局和局部上下文信息捕捉对话情感,同时有效处理跨模态交互和时间依赖。模型利用图神经网络结构,通过构建图来表示对话中的交互和时间关系,提高了情感预测的准确性。在IEMOCAP和CMU-MOSEI数据集上的实验结果证明了correct的有效性。源码和更多细节可在文章链接提供的附件中获取。
【传知代码】图神经网络长对话理解-论文复现
|
11天前
|
机器学习/深度学习 PyTorch TensorFlow
TensorFlow、Keras 和 Python 构建神经网络分析鸢尾花iris数据集|代码数据分享
TensorFlow、Keras 和 Python 构建神经网络分析鸢尾花iris数据集|代码数据分享
|
7月前
|
机器学习/深度学习 存储 自然语言处理
|
11天前
|
机器学习/深度学习 存储 算法
【轻量化:实操】动手实现神经网络中的裁枝操作(附演示代码&yolo系列)
【轻量化:实操】动手实现神经网络中的裁枝操作(附演示代码&yolo系列)
103 1
|
11天前
|
机器学习/深度学习 自然语言处理 PyTorch
深入理解循环神经网络(RNN):案例和代码详解
深入理解循环神经网络(RNN):案例和代码详解
311 0

热门文章

最新文章