深度残差收缩网络(2):整体思路

简介:

其实,这篇文章的摘要很好地总结了整体的思路。一共四句话,非常简明扼要。

我们首先来翻译一下论文的摘要:

第一句:This paper develops new deep learning methods, namely, deep residual shrinkage networks, to improve the feature learning ability from highly noised vibration signals and achieve a high fault diagnosing accuracy.

翻译:本文提出了新的深度学习方法,即深度残差收缩网络,来提高深度学习算法从强噪声信号中学习特征的能力,并且取得较高的故障诊断准确率。

解释:不仅明确了所提出的方法(深度残差收缩网络),而且指出了面向的信号类型(强噪声信号)。

第二句:Soft thresholding is inserted as nonlinear transformation layers into the deep architectures to eliminate unimportant features.

翻译:软阈值化作为非线性层,嵌入到深度神经网络之中,以消除不重要的特征。

解释:深度残差收缩网络是ResNet的改进。这里解释了深度残差收缩网络与ResNet的第一点不同之处——引入了软阈值化。

第三句:Moreover, considering that it is generally challenging to set proper values for the thresholds, the developed deep residual shrinkage networks integrate a few specialized neural networks as trainable modules to automatically determine the thresholds, so that professional expertise on signal processing is not required.

翻译:更进一步地,考虑到软阈值化中的阈值是难以设定的,本文所提出的深度残差收缩网络,采用了一个子网络,来自动地设置这些阈值,从而避免了信号处理领域的专业知识。

解释:这句话点明了本文的核心贡献。本文不仅在网络模型中引入了软阈值化,而且给出了自动设置阈值的方式。

第四句:The efficacy of the developed methods is validated through experiments with various types of noise.

翻译:该方法的有效性通过不同噪声下的实验得到了验证。

解释:实验验证部分考虑了不同种类噪声的影响。

总结:深度残差收缩网络=ResNet+软阈值化+自动设置阈值。

转载网址:

深度残差收缩网络:(一)背景知识 https://www.cnblogs.com/yc-9527/p/11598844.html

深度残差收缩网络:(二)整体思路 https://www.cnblogs.com/yc-9527/p/11601322.html

深度残差收缩网络:(三)网络结构 https://www.cnblogs.com/yc-9527/p/11603320.html

深度残差收缩网络:(四)注意力机制下的阈值设置 https://www.cnblogs.com/yc-9527/p/11604082.html

深度残差收缩网络:(五)实验验证 https://www.cnblogs.com/yc-9527/p/11610073.html

论文网址:

M. Zhao, S. Zhong, X. Fu, B. Tang, and M. Pecht, “Deep Residual Shrinkage Networks for Fault Diagnosis,” IEEE Transactions on Industrial Informatics, 2019, DOI: 10.1109/TII.2019.2943898
https://ieeexplore.ieee.org/document/8850096

相关文章
|
6月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】31. 卷积神经网络之残差网络(ResNet)介绍及其Pytorch实现
【从零开始学习深度学习】31. 卷积神经网络之残差网络(ResNet)介绍及其Pytorch实现
|
2月前
|
机器学习/深度学习 API 算法框架/工具
残差网络(ResNet) -深度学习(Residual Networks (ResNet) – Deep Learning)
残差网络(ResNet) -深度学习(Residual Networks (ResNet) – Deep Learning)
63 0
|
7月前
|
机器学习/深度学习 测试技术 Ruby
YOLOv5改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
YOLOv5改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
256 2
|
5月前
|
计算机视觉 网络架构
【YOLOv8改进 - 卷积Conv】DWRSeg:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
YOLO目标检测专栏探讨了YOLO的创新改进,如多尺度特征提取的DWRSeg网络。该网络通过区域残差化和语义残差化提升效率,使用DWR和SIR模块优化高层和低层特征。DWRSeg在Cityscapes和CamVid数据集上表现优秀,速度与准确性兼备。论文和代码已公开。核心代码展示了一个包含DWR模块的卷积层。更多配置详情见相关链接。
|
机器学习/深度学习 编解码 算法
CVPR2022 | 浙大、蚂蚁集团提出基于标签关系树的层级残差多粒度分类网络,建模多粒度标签间的层级知识(2)
CVPR2022 | 浙大、蚂蚁集团提出基于标签关系树的层级残差多粒度分类网络,建模多粒度标签间的层级知识
111 0
|
机器学习/深度学习 编解码 算法
CVPR2022 | 浙大、蚂蚁集团提出基于标签关系树的层级残差多粒度分类网络,建模多粒度标签间的层级知识(1)
CVPR2022 | 浙大、蚂蚁集团提出基于标签关系树的层级残差多粒度分类网络,建模多粒度标签间的层级知识
157 0
|
机器学习/深度学习 自然语言处理 索引
【神经网络】MLP 编码器-解码器 注意力机制 残差连接
【神经网络】MLP 编码器-解码器 注意力机制 残差连接
718 0
【神经网络】MLP 编码器-解码器 注意力机制 残差连接
|
机器学习/深度学习 并行计算 算法
【DSW Gallery】基于残差网络的度量学习示例
EasyCV是基于Pytorch,以自监督学习和Transformer技术为核心的 all-in-one 视觉算法建模工具,并包含图像分类,度量学习,目标检测,姿态识别等视觉任务的SOTA算法。本文以度量学习为例,为您介绍如何在PAI-DSW中使用EasyCV。
【DSW Gallery】基于残差网络的度量学习示例
|
PyTorch 算法框架/工具
ResNet残差网络Pytorch实现——对花的种类进行训练
ResNet残差网络Pytorch实现——对花的种类进行训练
222 0
|
机器学习/深度学习 计算机视觉
深度残差网络(ResNet)之ResNet34的实现和个人浅见
深度残差网络(ResNet)之ResNet34的实现和个人浅见
285 0
深度残差网络(ResNet)之ResNet34的实现和个人浅见