【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction

简介: 本文探讨了使用复数卷积神经网络进行MRI图像重建的方法,强调了复数网络在保留相位信息和减少参数数量方面的优势,并通过实验分析了不同的复数激活函数、网络宽度、深度以及结构对模型性能的影响,得出复数模型在MRI重建任务中相对于实数模型具有更优性能的结论。

作者提供TensorFlow复数模型源码https://github.com/MRSRL/complex-networks-release

1 简介和创新点

MRI (Magnetic resonance imaging)核磁共振图像
利用复数神经网络代替实数神经网络实现核磁共振图像重建,以加快扫描时间,并确定各种有前途的复值激活函数的性能。
以往的处理复数是把实数和复数分为两条通道,但是这样做会丢弃数据的某些复数代数结构,并且在数据在整个网络中移动时并不一定要保持数据的相位信息。
当前解决图像重建的的神经网络有GAN、ADMM-Net、MoDL、U-Nets、AutoMap
复数的优越性
• 《Deep complex networks》通过使用复值卷积,减少了每个模型中的参数数量。这减少了网络占用的内存,可学习的参数数量和训练时间。
• 《Associative Long Short-Term Memory》中,提出了复数权重根在内存访问体系结构中更稳定且在数值上更有效。使网络具有更丰富的表示能力。
评价标准

2 模型

2.1 复数激活函数

1.png

2.2 系统模型

作者提出了两个模型作为对比实验,第一个是基于展开式优化的,该优化基于迭代软收缩算法。包括两个模块,一个是数据一致性模块和去噪模块。

  • 数据一致性模块:使用MRI模型强制与物理测量的k空间样本保持数据一致性
  • 去噪模块:使用残差结构块进行去噪输入图像以产生输出图像.除最后一个卷积层外,每个卷积层后都有一个ReLU和一个复数值激活函数

2.png

第二个是U-Net。该网络使用卷积和反卷积来捕获信息。每个橙色框都表示了一个多通道特征图。

  • 红色箭头是复数卷积,每个卷积后跟一个ReLU激活函数
  • 蓝色箭头2x2最大池化,步长为2
  • 最后一层绿色箭头的是一维卷积,作者的画图有误
  • 黑色箭头是copy
  • 经过本人的不确定分析,网络的输入是复数值,输出是二维图片的值

3.png

3 模型参数

L1 损失函数
Adam优化器
学习率0.001
U-Net的Batch-size =3
Unrolled Network的Batch-size = 2
50000epoch
实现框架:Tensorflow
评估标准:NRMSE归一化均方根误差、峰值信噪比PSNR、结构相似性指数SSIM
NRMSE和PSNR是在复数值图像上评估的; 但是,仅在幅度图像上评估SSIM

4 实验分析

TensorFlow实现的复数工具包
https://github.com/MRSRL/complex-networks-release

4.1 激活函数分析

实验过程:
在展开网络中,实数网络的激活函数Relu,复数网络,对比了modRelU,CReLU,zReLu和cardioid,最佳激活函数CReLU
对于该实验,迭代次数和特征图的数量分别固定为4和256。 实值和复数网络被设计为具有几乎相同数量的参数。
实验结果:复数网络相对于实数网络能更好的保留相位信息,最佳激活函数时CReLu

4.png

4.2 网络宽度分析

实验过程:
在展开网络中,通过将迭代次数固定为4,同时改变每一层中的特征图的数量,来评估展开网络宽度对实数网络模型与复数网络模型的性能的影响
实验结果:同时保持每个模型的参数总数大致相同。 当使用复值卷积时,重构性能得到了显着提高。

  • NRMSE:归一化均方根误差
  • PSNR:峰值信噪比
  • SSIM在: 结构相似性指数

5.png

4.3 网络深度分析

实验过程:
在展开网络中,通过训练实数网络和复数网络在每一层中进行2、4、8和12次迭代来改变网络的深度,分析两种网络的性能差异
实验结果:随着迭代次数的变化,特征图的数量是固定的,同时每个模型的参数总数保持大致相同。和实验类似的结果

4.4 网络结构分析

实验过程:
在U-Net网络上,使用复数搭建和实数搭建神经网络,分析在不同的结构上,复数神经网络是否有优势。
实验结果:通过分析图像,实值模型在相位图像的背景中引入了相位包裹错误,而复数网络模型和CS则没有。且复数网络的性能更佳。

4.5 实验结论

复值模型能够更准确地表示数据的复值性质。经过实验分析,复数框架能够轻松的适应其他网络架构,可以广泛应用到超声波,光学成像,雷达,语音和音乐领域
原因分析

  • 通过在具有复值卷积层的模型中使用复值权重,可以使用更多特征图,以使参数数量与具有实值卷积层的模型中的参数数量相同。 这样可以提高重建精度
  • 因为复值网络强制执行保留输入数据相位的结构,所以与实值网络的重构相位相比,复值网络的重构相位通常在视觉上更接近于地面实相(the phase of the ground truth)的相位。

5 疑问和思考

(1)网络模型的具体的输入输出,本人没有阅读明白,经过我的不确定分析,对于两个模型的理解如下

  • 在展开模型中,数据一致性模块处理的复数信号到raw image生成的过程,然后再把带有噪声的图片放入ResNet 中去噪。神经网络实现的图片的去噪
  • 在U-Net中,输入是复数值,输出是二维图片的数值
    (2)提供的源码只是《DeepComplexNetwork》文献提供的源码的TensorFlow复现。对于基于ISTA算法的展开网络和U-Net还需要通过看其他文献了解这两个模型细节,U-Net模型来自《U-net: Convolutional networks for biomedical image segmentation》
目录
相关文章
|
1月前
|
机器学习/深度学习 数据挖掘
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
本文综述了复杂脑网络中的通信动态,提出了一个将通信动态视为结构连接和功能连接之间必要联系的概念框架,探讨了结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供对大脑信息转换和处理机制的额外洞察。
29 2
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
|
1月前
|
机器学习/深度学习
【文献学习】Exploring Deep Complex Networks for Complex Spectrogram Enhancement
介绍了一种用于语音增强的复数深度神经网络(CDNN),它通过复数值的短时傅立叶变换(STFT)映射到干净的STFT,并提出了参数整流线性单位(PReLU)的复数扩展,实验结果表明CDNN在语音增强方面相对于实值深层神经网络(DNN)具有更好的性能。
32 2
【文献学习】Exploring Deep Complex Networks for Complex Spectrogram Enhancement
|
1月前
|
数据可视化 算法 Go
【博士每天一篇文献-实验】Exploring the Morphospace of Communication Efficiency in Complex Networks
这篇论文探讨了复杂网络中不同拓扑结构下的通信效率,并使用"效率形态空间"来分析网络拓扑与效率度量之间的关系,得出结论表明通信效率与网络结构紧密相关。
30 3
|
1月前
|
机器学习/深度学习 网络协议 PyTorch
【文献学习】DCCRN: Deep Complex Convolution Recurrent Network for Phase-Aware Speech Enhancement
本文介绍了一种新的深度复数卷积递归网络(DCCRN),用于处理语音增强问题,特别是针对低模型复杂度的实时处理。
21 5
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【文献学习】Phase-Aware Speech Enhancement with Deep Complex U-Net
文章介绍了Deep Complex U-Net模型,用于复数值的语音增强,提出了新的极坐标掩码方法和wSDR损失函数,并通过多种评估指标验证了其性能。
26 1
|
1月前
|
机器学习/深度学习 存储 算法
【文献学习】Deep Complex Networks
本文深入探讨了深度复数网络(Deep Complex Networks),包括其创新点、复数的优势、作者贡献,以及深度复数技术的具体应用,如复数卷积、激活函数、Batch-Normalization、权重初始化和卷积残差网络,并提出了对文中一些复杂概念的疑问和反思。
38 0
|
4月前
|
Python
[Knowledge Distillation]论文分析:Distilling the Knowledge in a Neural Network
[Knowledge Distillation]论文分析:Distilling the Knowledge in a Neural Network
28 1
|
10月前
|
机器学习/深度学习 算法 数据处理
Stanford 机器学习练习 Part 3 Neural Networks: Representation
从神经网络开始,感觉自己慢慢跟不上课程的节奏了,一些代码好多参考了别人的代码,而且,让我现在单独写也不一定写的出来了。学习就是一件慢慢积累的过程,两年前我学算法的时候,好多算法都完全看不懂,但后来,看的多了,做的多了,有一天就茅塞顿开。所有的困难都是一时的,只要坚持下去,一切问题都会解决的。没忍住发了点鸡汤文。
29 0
|
机器学习/深度学习 算法
Keyphrase Extraction Using Deep Recurrent Neural Networks on Twitter论文解读
该论文针对Twitter网站的信息进行关键词提取,因为Twitter网站文章/对话长度受到限制,现有的方法通常效果会急剧下降。作者使用循环神经网络(recurrent neural network,RNN)来解决这一问题,相对于其他方法取得了更好的效果。
77 0
|
机器学习/深度学习 数据挖掘 计算机视觉
CV:翻译并解读2019《A Survey of the Recent Architectures of Deep Convolutional Neural Networks》第四章(一)
CV:翻译并解读2019《A Survey of the Recent Architectures of Deep Convolutional Neural Networks》第四章
CV:翻译并解读2019《A Survey of the Recent Architectures of Deep Convolutional Neural Networks》第四章(一)

热门文章

最新文章