RT-DETR改进策略【注意力机制篇】| NAM 即插即用模块,重新优化通道和空间注意力(含HGBlock二次创新)

简介: RT-DETR改进策略【注意力机制篇】| NAM 即插即用模块,重新优化通道和空间注意力(含HGBlock二次创新)

一、本文介绍

本文记录的是基于NAM模块的RT-DETR目标检测改进方法研究。 许多先前的研究专注于通过注意力操作捕获显著特征,但缺乏对权重贡献因素的考虑,而这些因素能够进一步抑制不重要的通道或像素。而本文利用NAM改进RT-DETR,==通过权重的贡献因素来改进注意力机制,提高模型精度。==


专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、NAM介绍

NAM: Normalization-based Attention Module

NAM(Normalization - based Attention Module)注意力模块的设计的原理和优势如下:

2.1 NAM设计原理

  • NAM采用了来自CBAM(Convolutional Block Attention Module)的模块集成方式,并重新设计了通道空间注意力子模块。
  • 通道注意力子模块中,使用了批归一化(Batch Normalization,BN)的缩放因子来衡量通道的方差,并表示其重要性。具体公式为:$B{out } = BN(B{in}) = \gamma \frac{B{in} - \mu{\mathcal{B}}}{\sqrt{\sigma{\mathcal{B}}^{2} + \epsilon}} + \beta$,其中$\mu{B}$和$\sigma{B}$分别是小批量$B$的均值和标准差;$\gamma$和$\beta$是可训练的仿射变换参数(缩放和平移)。通道注意力子模块的输出特征$M{c}$表示为:$M{c} = sigmoid(W{\gamma}(BN(F{1})))$,其中$\gamma$是每个通道的缩放因子,权重$W{\gamma}$通过$W{\gamma} = \gamma{i} / \sum{j = 0} \gamma{j}$获得。

在这里插入图片描述

  • 空间维度上也应用了BN的缩放因子来测量像素的重要性,称为像素归一化。相应的空间注意力子模块的输出$M{s}$表示为:$M{s} = sigmoid(W{\lambda}(BN{s}(F{2})))$,其中$X$是缩放因子,权重$W{\lambda}$通过$W{\lambda} = \lambda{i} / \sum{j = 0} \lambda{j}$获得。

在这里插入图片描述

  • 为了抑制不太显著的权重,在损失函数中添加了一个正则化项,具体公式为:$Loss = \sum{(x, y)} l(f(x, W), y) + p \sum g(\gamma) + p \sum g(\lambda)$,其中$x$表示输入,$y$是输出,$W$代表网络权重,$l(\cdot)$是损失函数,$g(-)$是$l{1}$范数惩罚函数,$p$是平衡$g(\gamma)$和$g(\lambda)$的惩罚项。

    2.2 优势

  • 通过抑制不太显著的特征,NAM更高效。
  • 与其他三种注意力机制(SE、BAM、CBAM)在ResNet和MobileNet上的比较表明,NAM在单独使用通道或空间注意力时,性能优于其他四种注意力机制;在结合通道和空间注意力时,在具有相似计算复杂度的情况下,性能也更优。
  • 与CBAM相比,NAM在通道注意力模块中显著减少了参数数量,在空间注意力模块中参数增加不显著,总体上参数更少。

论文:https://arxiv.org/pdf/2111.12419
源码:https://github.com/Christian-lyc/NAM

三、实现代码及RT-DETR修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/144129455

相关文章
|
10月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
RT-DETR改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
277 3
RT-DETR改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
|
10月前
|
人工智能
RT-DETR改进策略【损失函数篇】| 2024 引进Focaler-IoU损失函数 加强边界框回归 (Focaler-DIoU、Focaler-GIoU、Focaler-CIoU)
RT-DETR改进策略【损失函数篇】| 2024 引进Focaler-IoU损失函数 加强边界框回归 (Focaler-DIoU、Focaler-GIoU、Focaler-CIoU)
298 1
|
10月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
RT-DETR改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
843 10
RT-DETR改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
|
10月前
|
机器学习/深度学习 计算机视觉 网络架构
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
762 12
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
|
机器学习/深度学习 关系型数据库
【YOLOv8改进 - 注意力机制】NAM:基于归一化的注意力模块,将权重稀疏惩罚应用于注意力机制中,提高效率性能
**NAM: 提升模型效率的新颖归一化注意力模块,抑制非显著权重,结合通道和空间注意力,通过批量归一化衡量重要性。在Resnet和Mobilenet上的实验显示优于其他三种机制。源码见[GitHub](https://github.com/Christian-lyc/NAM)。**
|
10月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【注意力机制篇】| CVPR2024 CAA上下文锚点注意力机制
RT-DETR改进策略【注意力机制篇】| CVPR2024 CAA上下文锚点注意力机制
345 1
RT-DETR改进策略【注意力机制篇】| CVPR2024 CAA上下文锚点注意力机制
|
10月前
|
机器学习/深度学习 数据可视化 算法
YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
1724 7
YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
|
10月前
|
机器学习/深度学习 数据可视化 计算机视觉
RT-DETR改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块(含HGBlock二次创新)
RT-DETR改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块(含HGBlock二次创新)
426 1
RT-DETR改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块(含HGBlock二次创新)
|
10月前
|
计算机视觉
YOLOv11改进策略【Neck】| 替换RT-DETR中的CCFF跨尺度特征融合颈部结构,优化计算瓶颈与冗余问题
YOLOv11改进策略【Neck】| 替换RT-DETR中的CCFF跨尺度特征融合颈部结构,优化计算瓶颈与冗余问题
813 8
YOLOv11改进策略【Neck】| 替换RT-DETR中的CCFF跨尺度特征融合颈部结构,优化计算瓶颈与冗余问题
|
10月前
|
编解码 异构计算
YOLOv11改进策略【Neck】| BiFPN:双向特征金字塔网络-跨尺度连接和加权特征融合
YOLOv11改进策略【Neck】| BiFPN:双向特征金字塔网络-跨尺度连接和加权特征融合
2703 7
YOLOv11改进策略【Neck】| BiFPN:双向特征金字塔网络-跨尺度连接和加权特征融合