图神经网络个人笔记

简介: 关于图神经网络自己的笔记整理2021/9/28

第四章 表示学习

语义鸿沟:

低层次特征与高层次抽象特征之间的差异

好的表示需要尽可能的描述一些高层次的抽象特征,以便后续模型可以高效利用这个特征。(换句话说,好的表示是为了减小语义鸿沟)

表示学习的任务:

学习这样一个映射

$$ f:X\rightarrow R^d $$

即将输入映射到一个稠密的低维向量空间中。

两种典型的表示学习方法:1.基于重构损失的方法 2.基于对比损失的方法

4.2 基于重构损失的方法——自编码器

自编码器(无监督学习模型)

基本思路:将输入映射到某个特征空间,再从这个特征空间映射回输入空间进行重构。

(由编码器和解码器组成)

自编码器有欠完备自编码器和过完备自编码器,两者通过$d、n$维度的大小关系来确定。

欠完备自编码器在一定条件下可以得到PCA的效果。

4.2.1 正则化自编码器

1.去噪自编码器

在原始输入的基础上加入噪音作为编码器的输出(具体做法是将输入x的一部分值置零)

2.稀疏自编码器

给损失函数加上正则项

通过限制神经元的活跃度来约束模型,尽可能使得大多数神经元都处于不活跃的状态。

4.2.2 变分自编码器

本质是生成模型(生成新的样本数据)

4.3 基于对比损失的方法——Word2vec

核心思想:用一个词的上下文去刻画这个词。

可以得到不同的两个模型:

CBow

给定某个中心词的上下文去预测该中心词;

Skip-gram

给定中心词来预测上下文词


第五章 图信号处理与图卷积神经网络

图信号是定义在节点上的信号,节点之间有自己固有的关联结构。

研究图信号的性质,除了要考虑图信号的强度还要考虑图的拓扑结构,不同图上同一强度的信号有截然不同的性质。


第6章 GCN的性质

6.1 GCN与CNN的联系

本质上看,二者都是聚合邻域信息的运算,只是作用的数据对象不同。

1.图像是一种特殊的图数据

2.从连接方式看,二者都是局部连接,对于拟合能力来说,CNN更有优势。

3.二者卷积核的权重是处处共享的;

4.从模型层面来说,感受域随着卷积层的增加而变大;

GCN主要任务:

图分类和节点分类

图数据中包含两部分信息:属性信息和结构信息。

属性信息描述了图中对象的固有性质;

结构信息描述了对象之间的关联性质;

两种典型的图数据学习方式:基于手工特征和基于随机游走的方法

两种方法的问题:节点的特征向量一旦被拼接就会被固化下来,下游任务学习中产生的监督信号不能有效指导图数据的表示学习,高效性降低。相反,GCN进将节点的表示学习和下游的任务学习被放到一个模型里面进行端到端学习,

同时,GCN对结构信息和属性信息的学习是同时进行的,这两者有很好的互补关系。

6.3 GCN是一个低通滤波器

图的半监督学习任务中,通常在相应的损失函数里面加上正则项(为了保证相邻节点之间的类别信息趋于一致。)

6.4 GCN的问题——过平滑

不能像CNN那样堆叠的很深,使用多层GCN学习,相关的任务效果就会极具下降。

GCN的本质是聚合邻居信息,随着网络层数的增加,聚合半径不断增加,自身节点所聚合的邻居节点越来越多,可能最终会导致覆盖所有的全图节点,而节点自身的信息就会变少,

相关文章
|
1月前
|
机器学习/深度学习 数据可视化 Windows
深度学习笔记(七):如何用Mxnet来将神经网络可视化
这篇文章介绍了如何使用Mxnet框架来实现神经网络的可视化,包括环境依赖的安装、具体的代码实现以及运行结果的展示。
54 0
|
1月前
|
机器学习/深度学习 Python
深度学习笔记(九):神经网络剪枝(Neural Network Pruning)详细介绍
神经网络剪枝是一种通过移除不重要的权重来减小模型大小并提高效率的技术,同时尽量保持模型性能。
52 0
深度学习笔记(九):神经网络剪枝(Neural Network Pruning)详细介绍
|
1月前
|
机器学习/深度学习 算法
深度学习笔记(四):神经网络之链式法则详解
这篇文章详细解释了链式法则在神经网络优化中的作用,说明了如何通过引入中间变量简化复杂函数的微分计算,并通过实例展示了链式法则在反向传播算法中的应用。
52 0
深度学习笔记(四):神经网络之链式法则详解
|
1月前
|
机器学习/深度学习 编解码
深度学习笔记(三):神经网络之九种激活函数Sigmoid、tanh、ReLU、ReLU6、Leaky Relu、ELU、Swish、Mish、Softmax详解
本文介绍了九种常用的神经网络激活函数:Sigmoid、tanh、ReLU、ReLU6、Leaky ReLU、ELU、Swish、Mish和Softmax,包括它们的定义、图像、优缺点以及在深度学习中的应用和代码实现。
129 0
深度学习笔记(三):神经网络之九种激活函数Sigmoid、tanh、ReLU、ReLU6、Leaky Relu、ELU、Swish、Mish、Softmax详解
|
1月前
|
机器学习/深度学习
深度学习笔记(一): 神经网络之感知机详解
深度学习笔记(一):探索感知机模型及其在神经网络中的应用。
34 0
深度学习笔记(一): 神经网络之感知机详解
|
2月前
|
机器学习/深度学习
小土堆-pytorch-神经网络-损失函数与反向传播_笔记
在使用损失函数时,关键在于匹配输入和输出形状。例如,在L1Loss中,输入形状中的N代表批量大小。以下是具体示例:对于相同形状的输入和目标张量,L1Loss默认计算差值并求平均;此外,均方误差(MSE)也是常用损失函数。实战中,损失函数用于计算模型输出与真实标签间的差距,并通过反向传播更新模型参数。
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
Transformer 能代替图神经网络吗?
Transformer模型的革新性在于其自注意力机制,广泛应用于多种任务,包括非原始设计领域。近期研究专注于Transformer的推理能力,特别是在图神经网络(GNN)上下文中。
103 5
|
4月前
|
机器学习/深度学习 搜索推荐 知识图谱
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响
【7月更文挑战第22天】北大港大联手打造SelfGNN,一种结合图神经网络与自监督学习的推荐系统,专攻信息过载及数据噪声难题。SelfGNN通过短期图捕获实时用户兴趣,利用自增强学习提升模型鲁棒性,实现多时间尺度动态行为建模,大幅优化推荐准确度与时效性。经四大真实数据集测试,SelfGNN在准确性和抗噪能力上超越现有模型。尽管如此,高计算复杂度及对图构建质量的依赖仍是待克服挑战。[详细论文](https://arxiv.org/abs/2405.20878)。
80 5
|
4月前
|
机器学习/深度学习 PyTorch 算法框架/工具
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
图神经网络是一类用于处理图结构数据的神经网络。与传统的深度学习模型(如卷积神经网络CNN和循环神经网络RNN)不同,
|
4月前
|
机器学习/深度学习 编解码 数据可视化
图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比
目前我们看到有很多使用KAN替代MLP的实验,但是目前来说对于图神经网络来说还没有类似的实验,今天我们就来使用KAN创建一个图神经网络Graph Kolmogorov Arnold(GKAN),来测试下KAN是否可以在图神经网络方面有所作为。
189 0

热门文章

最新文章

下一篇
无影云桌面