InfoGraph:基于互信息最大化的无监督和半监督图表示学习

简介: InfoGraph:基于互信息最大化的无监督和半监督图表示学习

论文标题:InfoGraph: Unsupervised and Semi-supervised Graph-Level


Representation Learning via Mutual Information Maximization


论文链接:https://arxiv.org/abs/1908.01000


论文来源:ICLR 2020


代码地址:https://github.com/fanyun-sun/InfoGraph


之前的相关博客:


MINE:随机变量互信息的估计方法


Deep InfoMax:基于互信息最大化的表示学习


一、概述


本文提出的InfoGraph是一种基于互信息最大化的图对比学习方法,与Deep Graph Infomax(DIM)相比,虽然都是基于互信息最大化的方法,InfoGraph更加侧重于图的表示学习,而DIM偏重于节点的表示学习。


过去的图相关的任务大多是监督学习任务,而图数据的标注通常是困难的和繁琐的,而对于大量的无标注数据未能有效利用。本文提出的InfoGraph侧重于图的无监督表示学习,另外InfoGraph*是在InfoGraph基础上拓展的半监督学习方法。InfoGraph*应用一个类似于Mean-Teacher方法的student-teacher框架,通过让一个encoder学习另一个encoder(最大化两者的互信息)从而在半监督任务上产生了较好的效果。


二、方法


  1. 问题定义


  • 无监督图表示学习

image.png


  1. InfoGraph


首先采用一个encoder获得图的节点表示(patch表示),然后使用readout函数来聚合获得的节点表示以得到图的表示。本文采用的encoder通过聚合邻居节点的特征来获得节点的表示:


image.png

image.png

image.png

                                                   InfoGraph算法


  1. 半监督InfoGraph


一个比较直接的将无监督的方法拓展成半监督的方式是将无监督的损失作为有监督目标的正则项,如下:


image.pngimage.png

image.png

                                       InfoGraph*


这种半监督的InfoGraph方法称为InfoGraph*。注意,InfoGraph*可以看作是student-teacher框架的一个特殊实例。然而,与最近的student-teacher半监督学习方法不同,这些方法使得学生模型的预测与教师模型相似,而InfoGraph*通过在表示的各层上的互信息最大化来实现知识从教师模型向学生模型的转移。


三、实验


本文在MUTAG, PTC, REDDIT-BINARY, REDDIT-MULTI-5K, IMDB-BINARY和IMDB-MULTI一共6个数据集上进行分类任务实验,在QM9数据集上进行半监督实验。实验结果如下:


image.png

                                               实验


image.png

                                            实验

相关文章
|
1月前
|
机器学习/深度学习 数据采集 搜索推荐
多模型DCA曲线:如何展现和解读乳腺癌风险评估模型的多样性和鲁棒性?
多模型DCA曲线:如何展现和解读乳腺癌风险评估模型的多样性和鲁棒性?
49 1
|
1月前
|
机器学习/深度学习 数据采集 算法
逻辑回归算法预测:哪些因素导致肥胖率上升?
逻辑回归算法预测:哪些因素导致肥胖率上升?
39 0
|
1月前
|
算法
有监督学习的模型评估和选择
有监督学习的模型评估和选择
|
9月前
|
算法
基于马科维茨与蒙特卡洛模型的资产最优配置模型(Matlab代码实现)
基于马科维茨与蒙特卡洛模型的资产最优配置模型(Matlab代码实现)
基于马科维茨与蒙特卡洛模型的资产最优配置模型(Matlab代码实现)
|
10月前
|
机器学习/深度学习 算法 计算机视觉
用于语义图像分割的弱监督和半监督学习:弱监督期望最大化方法
这篇论文只有图像级标签或边界框标签作为弱/半监督学习的输入。使用期望最大化(EM)方法,用于弱/半监督下的语义分割模型训练。
132 0
|
11月前
|
机器学习/深度学习 存储 自然语言处理
重新审视Prompt优化问题,预测偏差让语言模型上下文学习更强
重新审视Prompt优化问题,预测偏差让语言模型上下文学习更强
114 0
|
11月前
|
机器学习/深度学习 算法
理解并统一14种归因算法,让神经网络具有可解释性(2)
理解并统一14种归因算法,让神经网络具有可解释性
|
11月前
|
机器学习/深度学习 人工智能 算法
理解并统一14种归因算法,让神经网络具有可解释性(1)
理解并统一14种归因算法,让神经网络具有可解释性
101 0
|
11月前
|
机器学习/深度学习 人工智能
一种基于广义模板的图神经网络,用于准确的有机反应性预测
一种基于广义模板的图神经网络,用于准确的有机反应性预测
|
数据挖掘
非监督分类
非监督分类
244 0