理解图神经网络预训练 | KDD论文解读

简介: 图表示学习目前受到了广泛关注,但目前绝大多数的图表示学习方法都是针对特定领域的图进行学习和建模,所产出的图神经网络难以迁移。

新零售智能引擎事业群出品

图表示学习目前受到了广泛关注,但目前绝大多数的图表示学习方法都是针对特定领域的图进行学习和建模,所产出的图神经网络难以迁移。近期,预训练在多个领域都取得了巨大的成功,显著地提升了模型在各大下游任务的表现。受到BERT (Devlin et al., 2018) 等工作的启发,我们开始研究图神经网络的预训练,希望能够从中学习到通用的图拓扑结构特征。我们提出了Graph Contrastive Coding的图神经网络预训练框架,利用对比学习(Contrastive Learning)的方法学习到内在的可迁移的结构信息。本工作GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training已被KDD 2020 research track录用。
传统的图表示学习主要参考NLP的基于skip-gram词表示学习方法,如DeepWalk和Node2Vec等。而这些方法在建模邻居节点相似性,且训练出来的表示往往缺乏通用性,局限于特定网络。而我们提出的GCC则不同于传统方法,关注结构相似性,且GCC学习得到的表征可以迁移到各种网络上,具有很强的通用性。下图展示了GCC的基本框架:
image.png
在GCC中,我们采用了对比学习的框架,基本思想即让正例的表示和样本的表示在空间更相近,并让负例距离更远。在对比学习中,给定查询表示q,对于候选集中的K+1个表示{k_0,k_1,⋯,k_K},其中包含正例k_+。我们优化以下损失函数:
image.png
而q和k均是样本x^q和x^k的低维表示。而在GCC中,一个主要的方法设计则是每个样本是一个针对特定节点的r阶邻居的网络(在这里我们成为r-ego network)采样的子图。正例则是从同一个r-ego network采样的网络,而大量的负例则是从其他r-ego network采样的子图。获得了正例和负例后,我们需要构建图编码器实现图表征学习。事实上,任意一个图神经网络都可以成为GCC的编码器,而在实践中,我们则采用Graph Isomorphism Network (GIN)作为我们的编码器。

在对比学习中,我们需要维护一个大小为K的字典和编码器。但要想计算上述损失函数,最理想的情况是把所有负例加入字典中进行计算,这样会导致K极大,难以维护。为了保证模型的效率,我们参考了MoCo (He et al., 2020)的方法加入动量对比学习(momentum contrast)。在MoCo的方法中,为了增大字典大小K,需要维护一个负样本的队列,队列中包含此前训练过的batch的样本作为负例。此外,只有q 的编码器f_q的参数θ_q通过反向传递更新,而k 的编码器f_k的参数θ_k则通过以下方式更新

θ_k←mθ_k+(1-m) θ_q

其中m 指的是动量,通过超参数设定。对GCC而言,MoCo相较其他方法更为高效。
GCC主要应用于图级别和节点级别的下游任务。对于图级别的下游任务,我们可以和预训练保持一致,输入为子图,而对于节点级别的任务,我们则需要得到它的r-ego network或采样的子图。
我们做了一系列的实验去验证GCC的效果,其中节点分类、图分类和相似性检索等等。实验结果分别如下:

image.png

节点分类

image.png

图分类

image.png

相似性检索

从实验结果不难看出,GCC在多个任务多个数据集上都取得了比较突出的表现,和现有最优模型相比能够取得更优或相近的表现。这也表现了GCC的有效性。
综上所述,本文提出的GCC的图神经网络预训练框架利用对比学习的方法,有效地学习了图结构的通用表征征,并且学习到图的结构化信息,可以迁移到各类下游任务和各类图中。实验表明了该方法的有效性。未来我们会在更多的任务和实验上进行实验,并探索GCC在其他领域的应用。

参考文献:
Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
He, K., Fan, H., Wu, Y., Xie, S., & Girshick, R. (2020). Momentum contrast for unsupervised visual representation learning. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 9729-9738).

更多数据挖掘领域论文解读请查看:KDD精华论文解读

相关文章
|
24天前
|
机器学习/深度学习 人工智能
类人神经网络再进一步!DeepMind最新50页论文提出AligNet框架:用层次化视觉概念对齐人类
【10月更文挑战第18天】这篇论文提出了一种名为AligNet的框架,旨在通过将人类知识注入神经网络来解决其与人类认知的不匹配问题。AligNet通过训练教师模型模仿人类判断,并将人类化的结构和知识转移至预训练的视觉模型中,从而提高模型在多种任务上的泛化能力和稳健性。实验结果表明,人类对齐的模型在相似性任务和出分布情况下表现更佳。
54 3
|
1月前
|
机器学习/深度学习 Web App开发 人工智能
轻量级网络论文精度笔(一):《Micro-YOLO: Exploring Efficient Methods to Compress CNN based Object Detection Model》
《Micro-YOLO: Exploring Efficient Methods to Compress CNN based Object Detection Model》这篇论文提出了一种基于YOLOv3-Tiny的轻量级目标检测模型Micro-YOLO,通过渐进式通道剪枝和轻量级卷积层,显著减少了参数数量和计算成本,同时保持了较高的检测性能。
33 2
轻量级网络论文精度笔(一):《Micro-YOLO: Exploring Efficient Methods to Compress CNN based Object Detection Model》
|
1月前
|
机器学习/深度学习 编解码 算法
轻量级网络论文精度笔记(三):《Searching for MobileNetV3》
MobileNetV3是谷歌为移动设备优化的神经网络模型,通过神经架构搜索和新设计计算块提升效率和精度。它引入了h-swish激活函数和高效的分割解码器LR-ASPP,实现了移动端分类、检测和分割的最新SOTA成果。大模型在ImageNet分类上比MobileNetV2更准确,延迟降低20%;小模型准确度提升,延迟相当。
56 1
轻量级网络论文精度笔记(三):《Searching for MobileNetV3》
|
1月前
|
编解码 人工智能 文件存储
轻量级网络论文精度笔记(二):《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object ..》
YOLOv7是一种新的实时目标检测器,通过引入可训练的免费技术包和优化的网络架构,显著提高了检测精度,同时减少了参数和计算量。该研究还提出了新的模型重参数化和标签分配策略,有效提升了模型性能。实验结果显示,YOLOv7在速度和准确性上超越了其他目标检测器。
47 0
轻量级网络论文精度笔记(二):《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object ..》
|
3月前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
47 1
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
Transformer 能代替图神经网络吗?
Transformer模型的革新性在于其自注意力机制,广泛应用于多种任务,包括非原始设计领域。近期研究专注于Transformer的推理能力,特别是在图神经网络(GNN)上下文中。
98 5
|
4月前
|
机器学习/深度学习 搜索推荐 知识图谱
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响
【7月更文挑战第22天】北大港大联手打造SelfGNN,一种结合图神经网络与自监督学习的推荐系统,专攻信息过载及数据噪声难题。SelfGNN通过短期图捕获实时用户兴趣,利用自增强学习提升模型鲁棒性,实现多时间尺度动态行为建模,大幅优化推荐准确度与时效性。经四大真实数据集测试,SelfGNN在准确性和抗噪能力上超越现有模型。尽管如此,高计算复杂度及对图构建质量的依赖仍是待克服挑战。[详细论文](https://arxiv.org/abs/2405.20878)。
80 5
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
|
3月前
|
人工智能 算法 安全
【2023 年第十三届 MathorCup 高校数学建模挑战赛】C 题 电商物流网络包裹应急调运与结构优化问题 赛后总结之31页论文及代码
本文总结了2023年第十三届MathorCup高校数学建模挑战赛C题的解题过程,详细阐述了电商物流网络在面临突发事件时的包裹应急调运与结构优化问题,提出了基于时间序列预测、多目标优化、遗传算法和重要性评价模型的综合解决方案,并提供了相应的31页论文和代码实现。
76 0
|
4月前
|
机器学习/深度学习 编解码 数据可视化
图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比
目前我们看到有很多使用KAN替代MLP的实验,但是目前来说对于图神经网络来说还没有类似的实验,今天我们就来使用KAN创建一个图神经网络Graph Kolmogorov Arnold(GKAN),来测试下KAN是否可以在图神经网络方面有所作为。
189 0

热门文章

最新文章