RT-DETR改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力

简介: RT-DETR改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力

一、本文介绍

本文记录的是利用MLCA模块优化RT-DETR的目标检测网络模型MLCA (Mixed Local Channel Attention)的作用在于同时包含了通道信息和空间信息,克服了常见通道注意力方法只考虑通道关系而忽略空间信息的问题。相比一些只提供全局长程信息的方法,能更好地表达网络特征。本文将其加入到RT-DETR的不同位置中,综合多种信息,更好地突出重要特征,从而提升模型对物体检测的表达能力。


专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、混合局部通道注意力介绍

Mixed local channel attention for object detection

2.1 出发点

  • 多数通道注意力方法忽略空间特征信息,而包含空间信息的注意力方法计算和参数要求过高,不适合轻量级网络,且一些简单方法虽能减少参数并包含空间和通道信息,但排除了局部信息。为实现检测效果、速度和模型参数数量之间的平衡,并使注意力机制同时包含通道、空间、局部通道和全局通道信息,提出了MLCA模块

2.2 原理

2.2.1 输入特征向量处理

MLCA的输入特征向量会进行两步池化。首先通过局部池化将输入转化为$1Cks*ks$的向量以提取局部空间信息。这里$ks$是W或H维度上的块数,在研究中为了简化与SE的比较并设置统一计算量,将$ks$设为5。

2.2.2 分支转换与信息融合

基于第一步,利用两个分支将输入转化为一维向量,第一个分支包含全局信息,第二个分支包含局部空间信息。经过一维卷积后,通过反池化恢复两个向量的原始分辨率,然后融合信息以实现混合注意力。

在这里插入图片描述

2.3 结构

  • 整体结构:从整体上看,MLCA模块包含了上述的池化分支卷积融合等操作步骤。
  • 卷积核相关:在模块中,一维卷积(Conv1d)的卷积核大小$k$与通道维度$C$相关,其选择由公式$k = \Phi(C)=\left|\frac{log {2}(C)}{\gamma}+\frac{b}{\gamma}\right|{odd }$确定,其中$\gamma$和$b$是超参数,默认值为2,且$k$只取奇数,若计算结果为偶数则加1。

2.4优势

  • 参数和计算量方面
    • 与SE、LSE等相比,在保持较好性能的同时,能有效控制参数数量和计算量。例如在与LSE对比中,LSE参数数量和计算量一般与SE注意力机制乘以$ks * ks$相当,而MLCA通过特定设计避免了过多的参数和计算量增加。
    • 避免了通道维度降低带来的精度损失问题,因为通道维度降低虽能在一定程度上减少LSE模块的参数和计算量,但会牺牲精度。
      • 信息包含方面
    • 同时包含了通道信息和空间信息,克服了常见通道注意力方法只考虑通道关系而忽略空间信息的问题。
    • 融合了局部信息和全局信息,相比一些只提供全局长程信息的方法,能更好地表达网络特征。

论文:https://www.sciencedirect.com/science/article/abs/pii/S0952197623006267
源码: https://github.com/wandahangFY/MLCA

三、实现代码及RT-DETR修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/144133764

相关文章
|
机器学习/深度学习
YOLOv8改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
YOLOv8改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
827 1
|
机器学习/深度学习
YOLOv5改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
YOLOv5改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
921 0
|
机器学习/深度学习 Ruby
YOLOv5改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
YOLOv5改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
757 0
|
机器学习/深度学习 计算机视觉
YOLOv8改进 | 注意力机制 | 添加混合局部通道注意力——MLCA【原理讲解】
YOLOv8专栏介绍了混合局部通道注意力(MLCA)模块,它结合通道、空间和局部信息,提升目标检测性能,同时保持低复杂度。文章提供MLCA原理、代码实现及如何将其集成到YOLOv8中,助力读者实战深度学习目标检测。[YOLOv8改进——更新各种有效涨点方法](https://blog.csdn.net/m0_67647321/category_12548649.html)
|
SQL 监控 关系型数据库
避免锁表:为Update语句中的Where条件添加索引字段
在一个灰度环境中,某业务创建数据时出现异常延迟,原本以为是第三方接口问题,但日志显示接口响应正常。进一步排查发现,工单表的SQL插入操作因另一个业务的无索引UPDATE操作阻塞。具体问题在于UPDATE语句的where子句涉及字段缺失索引,导致锁表并影响并发性能。通过复现问题并为相关字段添加索引,解决了阻塞问题。重要的是,在编写UPDATE语句时要注意Where条件字段的索引,以优化查询并减少锁表影响。
533 6
避免锁表:为Update语句中的Where条件添加索引字段
|
机器学习/深度学习 编解码 异构计算
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 ICCV 2023的EfficientViT 用于高分辨率密集预测的多尺度线性关注
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 ICCV 2023的EfficientViT 用于高分辨率密集预测的多尺度线性关注
844 11
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 ICCV 2023的EfficientViT 用于高分辨率密集预测的多尺度线性关注
|
机器学习/深度学习 算法 计算机视觉
YOLOv10改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
YOLOv10改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
1071 6
YOLOv10改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
|
机器学习/深度学习
RT-DETR改进策略【Conv和Transformer】| CVPR-2024 Single-Head Self-Attention 单头自注意力
RT-DETR改进策略【Conv和Transformer】| CVPR-2024 Single-Head Self-Attention 单头自注意力
164 3
RT-DETR改进策略【Conv和Transformer】| CVPR-2024 Single-Head Self-Attention 单头自注意力
|
机器学习/深度学习 编解码 算法
【YOLOv11改进 - 注意力机制】MLCA(Mixed local channel attention):混合局部通道注意力
【YOLOv11改进 - 注意力机制】MLCA(Mixed local channel attention):混合局部通道注意力本项目提出了一种轻量级的 Mixed Local Channel Attention (MLCA) 模块,结合通道信息和空间信息,提升网络表达效果。基于此模块,开发了 MobileNet-Attention-YOLO (MAY) 算法,在 Pascal VOC 和 SMID 数据集上表现优异,mAP 分别提高了 1.0% 和 1.5%。MLCA 通过局部池化、一维卷积和信息融合,有效捕获局部和全局信息。项目代码和详细配置可在 GitHub 和 CSDN 获取。
|
机器学习/深度学习 人工智能 自然语言处理
NeurIPS 2024:SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命
《SparseLLM: Towards Global Pruning for Pre-trained Language Models》提出了一种新型框架SparseLLM,通过模块化表示和辅助变量引入,将全局剪枝问题转化为多个可管理的子问题,实现资源高效的优化并保证全局最优性。实验表明,SparseLLM在高稀疏性条件下显著提高了模型的准确性和计算效率,适用于资源受限的环境。论文链接:https://arxiv.org/abs/2402.17946
392 3