RT-DETR改进策略【注意力机制篇】| NAM 即插即用模块,重新优化通道和空间注意力(含HGBlock二次创新)

简介: RT-DETR改进策略【注意力机制篇】| NAM 即插即用模块,重新优化通道和空间注意力(含HGBlock二次创新)

一、本文介绍

本文记录的是基于NAM模块的RT-DETR目标检测改进方法研究。 许多先前的研究专注于通过注意力操作捕获显著特征,但缺乏对权重贡献因素的考虑,而这些因素能够进一步抑制不重要的通道或像素。而本文利用NAM改进RT-DETR,==通过权重的贡献因素来改进注意力机制,提高模型精度。==


专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、NAM介绍

NAM: Normalization-based Attention Module

NAM(Normalization - based Attention Module)注意力模块的设计的原理和优势如下:

2.1 NAM设计原理

  • NAM采用了来自CBAM(Convolutional Block Attention Module)的模块集成方式,并重新设计了通道空间注意力子模块。
  • 通道注意力子模块中,使用了批归一化(Batch Normalization,BN)的缩放因子来衡量通道的方差,并表示其重要性。具体公式为:$B{out } = BN(B{in}) = \gamma \frac{B{in} - \mu{\mathcal{B}}}{\sqrt{\sigma{\mathcal{B}}^{2} + \epsilon}} + \beta$,其中$\mu{B}$和$\sigma{B}$分别是小批量$B$的均值和标准差;$\gamma$和$\beta$是可训练的仿射变换参数(缩放和平移)。通道注意力子模块的输出特征$M{c}$表示为:$M{c} = sigmoid(W{\gamma}(BN(F{1})))$,其中$\gamma$是每个通道的缩放因子,权重$W{\gamma}$通过$W{\gamma} = \gamma{i} / \sum{j = 0} \gamma{j}$获得。

在这里插入图片描述

  • 空间维度上也应用了BN的缩放因子来测量像素的重要性,称为像素归一化。相应的空间注意力子模块的输出$M{s}$表示为:$M{s} = sigmoid(W{\lambda}(BN{s}(F{2})))$,其中$X$是缩放因子,权重$W{\lambda}$通过$W{\lambda} = \lambda{i} / \sum{j = 0} \lambda{j}$获得。

在这里插入图片描述

  • 为了抑制不太显著的权重,在损失函数中添加了一个正则化项,具体公式为:$Loss = \sum{(x, y)} l(f(x, W), y) + p \sum g(\gamma) + p \sum g(\lambda)$,其中$x$表示输入,$y$是输出,$W$代表网络权重,$l(\cdot)$是损失函数,$g(-)$是$l{1}$范数惩罚函数,$p$是平衡$g(\gamma)$和$g(\lambda)$的惩罚项。

    2.2 优势

  • 通过抑制不太显著的特征,NAM更高效。
  • 与其他三种注意力机制(SE、BAM、CBAM)在ResNet和MobileNet上的比较表明,NAM在单独使用通道或空间注意力时,性能优于其他四种注意力机制;在结合通道和空间注意力时,在具有相似计算复杂度的情况下,性能也更优。
  • 与CBAM相比,NAM在通道注意力模块中显著减少了参数数量,在空间注意力模块中参数增加不显著,总体上参数更少。

论文:https://arxiv.org/pdf/2111.12419
源码:https://github.com/Christian-lyc/NAM

三、实现代码及RT-DETR修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/144129455

相关文章
|
机器学习/深度学习 数据可视化 计算机视觉
YOLOv5改进 | 2023Neck篇 | 轻量级跨尺度特征融合模块CCFM(附yaml文件+添加教程)
YOLOv5改进 | 2023Neck篇 | 轻量级跨尺度特征融合模块CCFM(附yaml文件+添加教程)
1444 1
|
机器学习/深度学习 关系型数据库
【YOLOv8改进 - 注意力机制】NAM:基于归一化的注意力模块,将权重稀疏惩罚应用于注意力机制中,提高效率性能
**NAM: 提升模型效率的新颖归一化注意力模块,抑制非显著权重,结合通道和空间注意力,通过批量归一化衡量重要性。在Resnet和Mobilenet上的实验显示优于其他三种机制。源码见[GitHub](https://github.com/Christian-lyc/NAM)。**
|
机器学习/深度学习 计算机视觉 网络架构
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
975 12
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
|
机器学习/深度学习 移动开发 自然语言处理
【YOLOv8改进 - 注意力机制】ContextAggregation : 上下文聚合模块,捕捉局部和全局上下文,增强特征表示
【YOLOv8改进 - 注意力机制】ContextAggregation : 上下文聚合模块,捕捉局部和全局上下文,增强特征表示
|
计算机视觉
RT-DETR改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息
RT-DETR改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息
441 4
RT-DETR改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息
|
人工智能 计算机视觉
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
1193 5
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
1070 1
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
|
人工智能
RT-DETR改进策略【损失函数篇】| 2024 引进Focaler-IoU损失函数 加强边界框回归 (Focaler-DIoU、Focaler-GIoU、Focaler-CIoU)
RT-DETR改进策略【损失函数篇】| 2024 引进Focaler-IoU损失函数 加强边界框回归 (Focaler-DIoU、Focaler-GIoU、Focaler-CIoU)
404 1
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
757 0
RT-DETR改进策略【损失函数篇】| 通过辅助边界框计算IoU提升检测效果(Inner_GIoU、Inner_DIoU、Inner_CIoU、Inner_EIoU、Inner_SIoU)
|
机器学习/深度学习 算法 PyTorch
深度学习笔记(十三):IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU、WIOU损失函数分析及Pytorch实现
这篇文章详细介绍了多种用于目标检测任务中的边界框回归损失函数,包括IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU和WIOU,并提供了它们的Pytorch实现代码。
4642 1
深度学习笔记(十三):IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU、WIOU损失函数分析及Pytorch实现