RT-DETR改进策略【卷积层】| NeurIPS-2022 ParNet 即插即用模块 二次创新ResNetLayer

简介: RT-DETR改进策略【卷积层】| NeurIPS-2022 ParNet 即插即用模块 二次创新ResNetLayer

一、本文介绍

本文记录的是利用ParNet中的基础模块优化RT-DETR的目标检测网络模型ParNet block是一个即插即用模块,==能够在不增加深度的情况下增加感受野,更好地处理图像中的不同尺度特征,有助于网络对输入数据更全面地理解和学习,从而提升网络的特征提取能力和分类性能。==


专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、ParNet 介绍

NON-DEEP NETWORKS

ParNet block模块是ParNet网络架构中的重要组成部分,其设计出发点、原理、结构和优势如下:

2,1 设计出发点

  • 探索非深度网络的高性能:为了研究是否可以通过非深度(约10层)的神经网络在竞争激烈的基准测试中实现高性能,需要一种适合的网络模块结构。
  • 解决训练难题与提升性能:VGG-style网络训练通常比ResNet-style网络更困难,但通过“结构重参数化”技术可以使训练变得容易些,同时还需要解决非深度网络中如 receptive field有限以及可能缺乏足够非线性等问题,以提升性能。

2.2 原理

  • 结构重参数化:在训练过程中使用多个分支的 $3×3$ 卷积块,训练完成后将这些分支融合成一个 $3×3$ 卷积,从而减少推理过程中的延迟。
  • 增加非线性与提升感受野:采用Skip - Squeeze - Excitation (SSE) 层来增加感受野且不影响深度,同时用SiLU激活函数替换ReLU激活函数以增加网络的非线性。

在这里插入图片描述

2.3 结构

  • 基础结构:从Rep - VGG块借鉴初始设计并进行修改。
  • SSE模块:基于Squeeze - and - Excitation (SE) 设计构建Skip - Squeeze - Excitation (SSE) 层,该层与跳跃连接一起使用,并包含一个单一的全连接层。
  • 激活函数:采用SiLU激活函数。

论文:https://arxiv.org/pdf/2110.07641
源码:https://github.com/imankgoyal/NonDeepNetworks

三、实现代码及RT-DETR修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/144020971

目录
相关文章
|
1月前
|
机器学习/深度学习 计算机视觉 异构计算
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2023 FasterNet 高效快速的部分卷积块
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2023 FasterNet 高效快速的部分卷积块
68 0
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2023 FasterNet 高效快速的部分卷积块
|
1月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【卷积层】| ICCV-2023 LSK大核选择模块 包含ResNetLayer二次独家创新
RT-DETR改进策略【卷积层】| ICCV-2023 LSK大核选择模块 包含ResNetLayer二次独家创新
55 13
RT-DETR改进策略【卷积层】| ICCV-2023 LSK大核选择模块 包含ResNetLayer二次独家创新
|
1月前
|
机器学习/深度学习 编解码 计算机视觉
RT-DETR改进策略【卷积层】| ICCV-2023 SAFM 空间自适应特征调制模块 对ResNetLayer进行二次创新
RT-DETR改进策略【卷积层】| ICCV-2023 SAFM 空间自适应特征调制模块 对ResNetLayer进行二次创新
46 9
RT-DETR改进策略【卷积层】| ICCV-2023 SAFM 空间自适应特征调制模块 对ResNetLayer进行二次创新
|
1月前
|
计算机视觉
RT-DETR改进策略【卷积层】| RCS-OSA 通道混洗的重参数化卷积 二次创新ResNetLayer
RT-DETR改进策略【卷积层】| RCS-OSA 通道混洗的重参数化卷积 二次创新ResNetLayer
55 12
RT-DETR改进策略【卷积层】| RCS-OSA 通道混洗的重参数化卷积 二次创新ResNetLayer
|
1月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【卷积层】| CVPR-2021 多样分支块DBB,替换下采样模块 并二次创新ResNetLayer
RT-DETR改进策略【卷积层】| CVPR-2021 多样分支块DBB,替换下采样模块 并二次创新ResNetLayer
51 6
RT-DETR改进策略【卷积层】| CVPR-2021 多样分支块DBB,替换下采样模块 并二次创新ResNetLayer
|
1月前
|
机器学习/深度学习 资源调度 计算机视觉
RT-DETR改进策略【注意力机制篇】| NAM 即插即用模块,重新优化通道和空间注意力(含HGBlock二次创新)
RT-DETR改进策略【注意力机制篇】| NAM 即插即用模块,重新优化通道和空间注意力(含HGBlock二次创新)
79 1
RT-DETR改进策略【注意力机制篇】| NAM 即插即用模块,重新优化通道和空间注意力(含HGBlock二次创新)
|
1月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【注意力机制篇】| EMA 即插即用模块,提高远距离建模依赖(含二次创新)
RT-DETR改进策略【注意力机制篇】| EMA 即插即用模块,提高远距离建模依赖(含二次创新)
61 1
RT-DETR改进策略【注意力机制篇】| EMA 即插即用模块,提高远距离建模依赖(含二次创新)
|
1月前
|
机器学习/深度学习 数据可视化 计算机视觉
RT-DETR改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块(含HGBlock二次创新)
RT-DETR改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块(含HGBlock二次创新)
55 1
RT-DETR改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块(含HGBlock二次创新)
|
1月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含HGBlock二次创新)
RT-DETR改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含HGBlock二次创新)
43 2
RT-DETR改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含HGBlock二次创新)
|
1月前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含C2PSA二次创新)
YOLOv11改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含C2PSA二次创新)
78 2
YOLOv11改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含C2PSA二次创新)