图神经网络通用框架 —— NLNN非局部神经网络

简介: 图神经网络通用框架 —— NLNN非局部神经网络

前言

大家好,我是阿光。

本专栏整理了《图神经网络》,内包含了不同图神经网络的原理以及相关代码实现,详细讲解图神经网络,理论与实践相结合,如GCN、GraphSAGE、GAT等经典图网络,每一个代码实例都附带有完整的代码+数据集。

正在更新中~ ✨

🚨 我的项目环境:

  • 平台:Windows10
  • 语言环境:python3.7
  • 编译器:PyCharm
  • PyTorch版本:1.11.0
  • PyG版本:2.1.0

💥 项目专栏:【入门图神经网络】


一、NLNN

在图像任务当中,常用卷积运算CNN来进行提取图像的纹理信息,每个卷积核通过共享参数来处理一张图像的局部特征,如果要提取更大的物体信息,那么就需要通过增大卷积核以及不断堆叠大的卷积核来实现。

对于文本任务,常用循环神经网络RNN来提取语义信息,想要捕捉高层次的语义信息就需要捕捉长时间依赖,也就是要考虑长文本信息。

这二者都是在处理局部淋雨信息,无法捕捉全局以及长程依赖关系,目前提出了NLNN非局部神经网络,能够将非本地操作作为捕获长程依赖关系的通用构建块族。受计算机视觉中经典的非局部均值方法的启发,非局部运算将一个位置处的响应计算为所有位置处特征的加权和。类似于自我注意里模块,处理每个位置的信息是考虑所有能够考虑位置的信息。

二、非局部神经网络层

该文章作者根据非局部平均运算,提出了一般非局部运算定义:

image.png

上面的 C(x) 代表归一化因子,因为信息聚合求和后会导致数据规模不一致,xixj 分别代表当前位置特征信息和其它位置的特征信息,f ( x i , x j ) f(x_i,x_j)f(xi,xj) 是一个函数能够通过两个x计算出对应的相似性分数,这个可以看成自注意力机制模块中的注意力分数,就是不同特征之间的关联程度,g ( x j ) g(x_j)g(xj) 是将 x j x_jxj 进行特征变换。

2.1 f ff 函数

image.png

该式子是高斯函数,作者提出的f函数实例,就是通过两个特征向量计算出一个标量,x i T x j x_i^Tx_jxiTxj 是通过点积计算相似度,因为点积这个模块很容易实现,同时归一化因子定义为 C(x)=jf(xi,xj)

image.png

该式子是嵌入高斯函数,与普通高斯不同的是在计算相似度之前通过一个可学习的W矩阵进行了映射。

2.2 g gg 函数

image.png

对于g 函数就是一个普通的MLP网络块,其中Wg 是一个可学习的参数矩阵,将原始输入特征映射到一个新的特征空间。

三、非局部网络块

作者在上述基础上提出了一个非局部网络块,为了能够将其封装到一个非本地块中,该块可以并入许多现有架构中。

image.png

上面的yi 就是yi=C(x)1jf(xi,xj)g(xj),然后使用了 W z W_zWz 进行特征映射,然后又加了一个 x i x_ixi ,这是一个残差结构,在非局部网络层的基础上加上原始输入,使用残差连接允许非局部网络块可以插入到任何预训练的模型中,而不会破坏模型参数,如果该层残差无效,只需要将 W z W_zWz 初始化为0即可。


目录
相关文章
|
17天前
|
机器学习/深度学习 编解码 自动驾驶
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
36 3
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
|
17天前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
112 62
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
|
21天前
|
机器学习/深度学习 编解码 自动驾驶
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
51 16
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
|
18天前
|
机器学习/深度学习 存储 大数据
RT-DETR改进策略【Backbone/主干网络】| ICLR-2023 替换骨干网络为:RevCol 一种新型神经网络设计范式
RT-DETR改进策略【Backbone/主干网络】| ICLR-2023 替换骨干网络为:RevCol 一种新型神经网络设计范式
42 11
RT-DETR改进策略【Backbone/主干网络】| ICLR-2023 替换骨干网络为:RevCol 一种新型神经网络设计范式
|
21天前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
59 9
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
|
21天前
|
机器学习/深度学习 存储 大数据
YOLOv11改进策略【Backbone/主干网络】| ICLR-2023 替换骨干网络为:RevCol 一种新型神经网络设计范式
YOLOv11改进策略【Backbone/主干网络】| ICLR-2023 替换骨干网络为:RevCol 一种新型神经网络设计范式
28 0
YOLOv11改进策略【Backbone/主干网络】| ICLR-2023 替换骨干网络为:RevCol 一种新型神经网络设计范式
|
2月前
|
机器学习/深度学习 算法 PyTorch
基于图神经网络的大语言模型检索增强生成框架研究:面向知识图谱推理的优化与扩展
本文探讨了图神经网络(GNN)与大型语言模型(LLM)结合在知识图谱问答中的应用。研究首先基于G-Retriever构建了探索性模型,然后深入分析了GNN-RAG架构,通过敏感性研究和架构改进,显著提升了模型的推理能力和答案质量。实验结果表明,改进后的模型在多个评估指标上取得了显著提升,特别是在精确率和召回率方面。最后,文章提出了反思机制和教师网络的概念,进一步增强了模型的推理能力。
92 4
基于图神经网络的大语言模型检索增强生成框架研究:面向知识图谱推理的优化与扩展
|
3月前
|
人工智能 自然语言处理
WebDreamer:基于大语言模型模拟网页交互增强网络规划能力的框架
WebDreamer是一个基于大型语言模型(LLMs)的网络智能体框架,通过模拟网页交互来增强网络规划能力。它利用GPT-4o作为世界模型,预测用户行为及其结果,优化决策过程,提高性能和安全性。WebDreamer的核心在于“做梦”概念,即在实际采取行动前,用LLM预测每个可能步骤的结果,并选择最有可能实现目标的行动。
96 1
WebDreamer:基于大语言模型模拟网页交互增强网络规划能力的框架
|
3月前
|
JSON 数据处理 Swift
Swift 中的网络编程,主要介绍了 URLSession 和 Alamofire 两大框架的特点、用法及实际应用
本文深入探讨了 Swift 中的网络编程,主要介绍了 URLSession 和 Alamofire 两大框架的特点、用法及实际应用。URLSession 由苹果提供,支持底层网络控制;Alamofire 则是在 URLSession 基础上增加了更简洁的接口和功能扩展。文章通过具体案例对比了两者的使用方法,帮助开发者根据需求选择合适的网络编程工具。
68 3
|
3月前
|
网络协议 Unix Linux
精选2款C#/.NET开源且功能强大的网络通信框架
精选2款C#/.NET开源且功能强大的网络通信框架
120 0

热门文章

最新文章