【文献学习】Deep Complex Networks

简介: 本文深入探讨了深度复数网络(Deep Complex Networks),包括其创新点、复数的优势、作者贡献,以及深度复数技术的具体应用,如复数卷积、激活函数、Batch-Normalization、权重初始化和卷积残差网络,并提出了对文中一些复杂概念的疑问和反思。

1 简介

论文和源码

1.1 创新点

提出了神经网络中复数处理的技术应用到卷积前馈神经网络和卷积LSTM网络
提出了复数batch-normalization的算法,用于复数神经网络的复数权重初始化

1.2 复数的优势

复数在伸进网络中有更丰富的表示能力
允许强大的噪声存储机制noise-robust
复数在检索和插入关联存储器方面有优势。
在音乐转录、语音频谱预测、生物学、信号处理方面有复数的应用

1.3 作者贡献

复数batch-normalization的公式
复数权重初始化
不同的基于RelU的复数值激活函数的比较
深度复数技术应用于MusicNet多乐器音乐转录数据集的最新结果
深度复数技术应用于TIMIT数据集的语音频谱预测任务

2 深度复数技术

2.1 复数卷积

计算公式。h=x+iy是要卷积的复数.W = A+iB,W是构造的复数,A、B是实数矩阵

1.png

用矩阵形式表示以上公式

2.png

将激活函数限制为复数的可微分的和全纯函数,限制了将可能的激活函数应用到复数神经网络中。

2.2 复数激活

针对复数有特殊的激活函数

  • ModReLU

    3.png

z是复数,θz是z的相位,b是一个可学习的实数参数
modReLU设计背后的直觉是保留预激活相位θz,因为使用激活函数对其进行更改会严重影响复数值表示。 modReLU不满足Cauchy-Riemann方程,因此不是全纯的.在表6.4中显示测试结果

  • CReLU
    就是分别对实部和虚部进行ReLU激活

    4.png

当实部和虚部同时处于严格正值或严格负值时,CReLU满足Cauchy-Riemann方程。在表6.4中显示测试结果

  • zReLU
    z是复数,θz是z的相位。表6.4显示测试结果

    5.png

2.3 复数Batch-Normalization

第一步:复数的Normalization
不是传统的缩放到0-1范围,作者提出复数的方法如下:
我们选择复数的实部和虚部视为2维向量中的一个,按两个主分量中每个分量的方差平方根来缩放数据。公式如下

6.png

x是复数,E(x)是求均方,V是2*2 的协方差矩阵计算公式如下,(x-E(x))表示以0为中心的数据,即方差。

7.png

均方差和方差的平方根的倒数相乘以确保x〜具有标准复数分布,均值为0,协方差 1,伪协方差(也称为关系)C = 0。
归一化过程允许将单元的虚部和实部去相关(decorrelate)。 这样的优点是避免了两个组件之间的共同适应,从而降低了过拟合的风险
没有明白V的计算公式中Cov(…)表示什么意思?

第二步:执行Batch-Normalization算法
算法步骤如下
使用两个参数β和γ。 移位参数β是一个复数的参数,具有两个可学习的分量(实数和虚数的均值)。
缩放参数γ是一个2×2正半定矩阵,只有三个自由度,因此只有三个可学习的分量。
矩阵 ( V ) − 12 (V)^{−12} (V)−12沿输入的两个原始主成分将输入方差归一化为1,因此γ沿所需的新主成分按比例缩放输入以实现所需方差。 缩放参数γ由下式给出

8.png

将γrr和γii都初始化为1/ 2 \sqrt{2} 2 ​,以获得归一化值方差的模数为1。R{β} 和 I{β}被初始化为0(这里的R{β}和I{β}对应作者给出的V公式中的两个看不懂的符号,只是换了把x换成了β)。综上,Batch-Normalization的公式如下

9.png

注意:
在训练和测试过程中,作者使用具有动量的移动平均值来维持对复数的Batch-Normalization统计数据的估计。 Vri和β的移动平均值被初始化为0。Vrr和Vii的移动平均值被初始化为1/ 2 \sqrt{2} 2 ​。 移动平均值的动量设置为0.9。

2.4 复数的权重初始化

复数权重表示

10.png

θ和|W|分别是W的自变量(相位)和幅度。
权重的方差计算公式

11.png

(剩下的内容太复杂,看不明白)

2.5 复数的卷积残差网络

包括三个步骤,最后一个步骤特征图将进行2倍的下采样,卷积核的数量也将增加一倍。 卷积核的大小始终设置为3 x3。在一个阶段中,有几个残差块,每个残块包含2个卷积层.
由于作者使用的所有数据集均具有实值输入,因此我们提供了一种学习其虚部的方法,以使网络的其余部分在复数平面中运行。 通过执行单个实值残差块中存在的运算来学习输入的初始虚部
(太复杂,看不明白)

3 疑问和反思

(1)2.3中没有明白V的计算公式中Cov(…)表示什么意思?
(2)2.4的复数权重初始化太复杂看不明白
(3)2.5的复数的卷积残差网络和介绍复数模块有什么关系,没有看明白理论太复杂,也不知道作者去介绍这个部分的目的。

目录
相关文章
|
6月前
|
机器学习/深度学习 数据挖掘
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
本文综述了复杂脑网络中的通信动态,提出了一个将通信动态视为结构连接和功能连接之间必要联系的概念框架,探讨了结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供对大脑信息转换和处理机制的额外洞察。
62 2
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
|
6月前
|
机器学习/深度学习
【文献学习】Exploring Deep Complex Networks for Complex Spectrogram Enhancement
介绍了一种用于语音增强的复数深度神经网络(CDNN),它通过复数值的短时傅立叶变换(STFT)映射到干净的STFT,并提出了参数整流线性单位(PReLU)的复数扩展,实验结果表明CDNN在语音增强方面相对于实值深层神经网络(DNN)具有更好的性能。
64 2
【文献学习】Exploring Deep Complex Networks for Complex Spectrogram Enhancement
|
6月前
|
数据可视化 算法 Go
【博士每天一篇文献-实验】Exploring the Morphospace of Communication Efficiency in Complex Networks
这篇论文探讨了复杂网络中不同拓扑结构下的通信效率,并使用"效率形态空间"来分析网络拓扑与效率度量之间的关系,得出结论表明通信效率与网络结构紧密相关。
56 3
|
6月前
|
机器学习/深度学习 网络协议 PyTorch
【文献学习】DCCRN: Deep Complex Convolution Recurrent Network for Phase-Aware Speech Enhancement
本文介绍了一种新的深度复数卷积递归网络(DCCRN),用于处理语音增强问题,特别是针对低模型复杂度的实时处理。
253 5
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【文献学习】Phase-Aware Speech Enhancement with Deep Complex U-Net
文章介绍了Deep Complex U-Net模型,用于复数值的语音增强,提出了新的极坐标掩码方法和wSDR损失函数,并通过多种评估指标验证了其性能。
83 1
|
6月前
|
机器学习/深度学习 算法 TensorFlow
【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction
本文探讨了使用复数卷积神经网络进行MRI图像重建的方法,强调了复数网络在保留相位信息和减少参数数量方面的优势,并通过实验分析了不同的复数激活函数、网络宽度、深度以及结构对模型性能的影响,得出复数模型在MRI重建任务中相对于实数模型具有更优性能的结论。
63 0
【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction
|
6月前
|
机器学习/深度学习 算法
【博士每天一篇文献-综述】A wholistic view of continual learning with deep neural networks Forgotten
本文提出了一个整合持续学习、主动学习(active learning)和开放集识别(open set recognition)的统一框架,基于极端值理论(Extreme Value Theory, EVT)的元识别方法,强调了在深度学习时代经常被忽视的从开放集识别中学习识别未知样本的教训和主动学习中的数据查询策略,通过实证研究展示了这种整合方法在减轻灾难性遗忘、数据查询、任务顺序选择以及开放世界应用中的鲁棒性方面的联合改进。
58 6
《Graph Neural Networks- Combing Deep Learning & Symbolic Reasoning》电子版地址
Graph Neural Networks- Combing Deep Learning & Symbolic Reasoning
99 0
《Graph Neural Networks- Combing Deep Learning & Symbolic Reasoning》电子版地址
|
机器学习/深度学习 搜索推荐 算法
【推荐系统论文精读系列】(十)--Wide&Deep Learning for Recommender Systems
具有非线性特征转化能力的广义线性模型被广泛用于大规模的分类和回归问题,对于那些输入数据是极度稀疏的情况下。通过使用交叉积获得的记忆交互特征是有效的而且具有可解释性,然后这种的泛化能力需要更多的特征工程努力。在进行少量的特征工程的情况下,深度神经网络可以泛化更多隐式的特征组合,通过从Sparse特征中学得低维的Embedding向量。可是,深度神经网络有个问题就是由于网络过深,会导致过度泛化数据。
205 0
【推荐系统论文精读系列】(十)--Wide&Deep Learning for Recommender Systems
|
机器学习/深度学习 搜索推荐
【推荐系统论文精读系列】(十四)--Information Fusion-Based Deep Neural Attentive Matrix Factorization Recommendation
推荐系统的出现,有效地缓解了信息过载的问题。而传统的推荐系统,要么忽略用户和物品的丰富属性信息,如用户的人口统计特征、物品的内容特征等,面对稀疏性问题,要么采用全连接网络连接特征信息,忽略不同属性信息之间的交互。本文提出了基于信息融合的深度神经注意矩阵分解(ifdnamf)推荐模型,该模型引入了用户和物品的特征信息,并采用不同信息域之间的交叉积来学习交叉特征。此外,还利用注意机制来区分不同交叉特征对预测结果的重要性。此外,ifdnamf采用深度神经网络来学习用户与项目之间的高阶交互。同时,作者在电影和图书这两个数据集上进行了广泛的实验,并证明了该模型的可行性和有效性。
327 0
【推荐系统论文精读系列】(十四)--Information Fusion-Based Deep Neural Attentive Matrix Factorization Recommendation

热门文章

最新文章