GraphCL:基于数据增强的图对比学习

简介: GraphCL:基于数据增强的图对比学习

论文标题:Graph Contrastive Learning with Augmentations


论文链接:https://arxiv.org/abs/2010.13902


论文来源:NeurIPS 2020


一、概述


预训练在深度模型的训练过程中相当于作为一个正则化器以避免梯度消失或爆炸。而对于GNN而言,很少有关于(自监督)预训练相关技术的研究。究其原因可能是图数据集通常规模较小,而且GNN模型通常在结构上设计较浅以避免过平滑(over-smoothing)或者信息损失。对于图数据集来说,数据的标注(比如化学和生物领域内的分子标注)是困难的,预训练的方法可以缓解这一问题,因而本文着力研究图数据集上的自监督预训练方法。


图是具有不同性质的原始数据的抽象表示,数据可能来自各个领域(比如化学分子或者社交网络),在图的上下文中存在极为丰富的信息,因而不容易设计一个能够应用在各种下游任务的通用框架。一种比较朴素的预训练方式如GAE、GraphSAGE,主要通过重构节点邻接信息来实现,这种方式是非常有限的,因为其过分强调接近性,这并不总是有效的,有时候会忽略和损伤结构信息。因此,需要一个设计良好的预训练框架来捕获图结构数据中的高度异构信息。


本文提出的GraphCL作为一种图的预训练框架,采用对比学习的方法作为基础,并且实验采用了四种不同的图数据增强方式,同时应用互信息最大化的方法来进行训练。


二、方法


  1. 图神经网络


image.png


  1. 数据增强


image.png


在图上与图像上类似,对于图数据的数据增强应该保证增强后的图数据不应该丢失对于分类或者回归任务很关键的信息。不过对于图数据来说,由于其来自多个不同的领域,因此不容易像图像那样找到统一的数据增强方式。换句话说,对于不同类别的图数据集,某些数据增强可能比其他类型更需要。本文主要关注三类图数据集:生物化学分子(例如化合物、蛋白质)、社交网络以及图片super-pixel图。另外在实验中采用了四种不同的数据增强方式,分别对应不同的四种先验:


image.png

image.png

                                                数据增强


四种数据增强用到的比例默认设置为0.2。


  1. GraphCL


本文提出的graph contrastive learning(GraphCL)框架利用对比学习的方法来最大化图的两个不同视图之间的一致性以学习图的表示。下图展示了GraphCL的框架:


image.png

                                               框架


image.png


GraphCL可以看做最大化互信息的一种方式,可以将损失函数写成下列形式:


image.png

三、实验


  1. 数据集统计


本文实验采用下列数据集:


image.png

                                               数据集


  1. 数据增强的组合和选择


下图实验探究了不同数据增强组合的影响:


image.png

                                                         实验


下列实验表明,对于不同类型的增强对,对比损失的下降速度总是比相同类型的增强对慢,这说明模型更难识别不同类型的数据增强:


image.png

                                                        实验


  1. 数据增强的类型、范围和模式


下列实验数据增强的类型、范围和模式对效果的影响:


image.png

                                                实验


image.png

                                                     实验


有以下结论:


①Edge perturbation对社会网络数据集有益,但会伤害生物分子数据集的性能;


②在密度较大的图中应用attribute masking可以获得更好的性能;


③Node dropping和subgraph对所有数据集都有益。


  1. 与SOTA方法的对比


  • 半监督学习


实验如下:


image.png

                                                     实验


  • 无监督学习


实验如下:

image.png

                                                  实验


  • 迁移学习


实验如下:


image.png

                                                实验


  • 对抗鲁棒性


实验如下:

image.png

                                                      实验

相关文章
|
自然语言处理 算法 数据挖掘
自蒸馏:一种简单高效的优化方式
背景知识蒸馏(knowledge distillation)指的是将预训练好的教师模型的知识通过蒸馏的方式迁移至学生模型,一般来说,教师模型会比学生模型网络容量更大,模型结构更复杂。对于学生而言,主要增益信息来自于更强的模型产出的带有更多可信信息的soft_label。例如下右图中,两个“2”对应的hard_label都是一样的,即0-9分类中,仅“2”类别对应概率为1.0,而soft_label
自蒸馏:一种简单高效的优化方式
|
机器学习/深度学习 自然语言处理 算法
|
11月前
|
存储 机器学习/深度学习 数据可视化
结合多模态RAG和异步调用实现大模型内容
文章探讨了如何利用多模态大模型和工程优化手段提升物流理赔业务效率。核心方案包括:通过多模态RAG技术实现图片查重,结合异步调用方法优化货损识别功能。
590 36
结合多模态RAG和异步调用实现大模型内容
|
7月前
|
数据采集 数据可视化 API
驱动业务决策:基于Python的App用户行为分析与可视化方案
驱动业务决策:基于Python的App用户行为分析与可视化方案
|
11月前
|
人工智能 算法
要创新,怎少得了智能体?新鲜出炉的TRIZ发明原则AI助手,你不来试试?
TRIZ发明原则AI助手是一款专注于技术创新领域的智能工具,由法思诺创新团队开发。它结合了TRIZ理论中的矛盾矩阵和发明原则,旨在帮助用户聚焦具体技术问题并快速生成大量有针对性的创意解决方案。相比通用AI,该助手在专业性、准确性和实用性上更具优势,尤其适合解决技术和产品研发中的复杂问题。通过将常规问题转化为TRIZ句型、匹配工程参数、查询矛盾矩阵及提供创意思路,助手实现了从问题定义到解决方案的全流程支持。尽管仍存在一些局限性(如偶尔输出不稳定或不够专业),但通过与研发人员的协作,其潜力可得到最大化发挥。目前,团队邀请用户试用并反馈,以持续优化这一创新工具。
537 0
|
机器学习/深度学习 数据可视化 自动驾驶
YOLO11-seg分割如何训练自己的数据集(道路缺陷)
本文介绍了如何使用自己的道路缺陷数据集训练YOLOv11-seg模型,涵盖数据集准备、模型配置、训练过程及结果可视化。数据集包含4029张图像,分为训练、验证和测试集。训练后,模型在Mask mAP50指标上达到0.673,展示了良好的分割性能。
6399 4
|
机器学习/深度学习 人工智能 算法
深入解析图神经网络:Graph Transformer的算法基础与工程实践
Graph Transformer是一种结合了Transformer自注意力机制与图神经网络(GNNs)特点的神经网络模型,专为处理图结构数据而设计。它通过改进的数据表示方法、自注意力机制、拉普拉斯位置编码、消息传递与聚合机制等核心技术,实现了对图中节点间关系信息的高效处理及长程依赖关系的捕捉,显著提升了图相关任务的性能。本文详细解析了Graph Transformer的技术原理、实现细节及应用场景,并通过图书推荐系统的实例,展示了其在实际问题解决中的强大能力。
1902 30
|
监控 安全 Linux
网络安全事件应急响应
应急响应是针对网络安全事件的快速处理流程,包括信息收集、事件判断、深入分析、清理处置、报告产出等环节。具体步骤涵盖准备、检测、抑制、根除、恢复和总结。
|
前端开发 Android开发 iOS开发
探索Android与iOS的跨平台开发策略
在移动应用开发的多元化时代,跨平台开发已成为开发者追求效率和广泛覆盖的重要手段。本文深入探讨了Android与iOS两大主流平台下的跨平台开发策略,分析了各自的优势与挑战,并通过实际案例展示了如何有效实施跨平台解决方案,以期为开发者提供有价值的参考和启示。
|
算法 数据挖掘 区块链
HTTP/2 协议-HPACK(HTTP2 头部压缩)原理介绍
HTTP/2 协议-HPACK(HTTP2 头部压缩)原理介绍
1727 0