YOLOv11改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力

简介: YOLOv11改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力

一、本文介绍

本文记录的是利用MLCA模块优化YOLOv11的目标检测网络模型MLCA (Mixed Local Channel Attention)的作用在于同时包含了通道信息和空间信息,克服了常见通道注意力方法只考虑通道关系而忽略空间信息的问题。相比一些只提供全局长程信息的方法,能更好地表达网络特征。本文将其加入到YOLOv11的不同位置中,综合多种信息,更好地突出重要特征,从而提升模型对物体检测的表达能力。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、混合局部通道注意力介绍

Mixed local channel attention for object detection

2.1 出发点

  • 多数通道注意力方法忽略空间特征信息,而包含空间信息的注意力方法计算和参数要求过高,不适合轻量级网络,且一些简单方法虽能减少参数并包含空间和通道信息,但排除了局部信息。为实现检测效果、速度和模型参数数量之间的平衡,并使注意力机制同时包含通道、空间、局部通道和全局通道信息,提出了MLCA模块

2.2 原理

2.2.1 输入特征向量处理

MLCA的输入特征向量会进行两步池化。首先通过局部池化将输入转化为$1Cks*ks$的向量以提取局部空间信息。这里$ks$是W或H维度上的块数,在研究中为了简化与SE的比较并设置统一计算量,将$ks$设为5。

2.2.2 分支转换与信息融合

基于第一步,利用两个分支将输入转化为一维向量,第一个分支包含全局信息,第二个分支包含局部空间信息。经过一维卷积后,通过反池化恢复两个向量的原始分辨率,然后融合信息以实现混合注意力。

在这里插入图片描述

2.3 结构

  • 整体结构:从整体上看,MLCA模块包含了上述的池化分支卷积融合等操作步骤。
  • 卷积核相关:在模块中,一维卷积(Conv1d)的卷积核大小$k$与通道维度$C$相关,其选择由公式$k = \Phi(C)=\left|\frac{log {2}(C)}{\gamma}+\frac{b}{\gamma}\right|{odd }$确定,其中$\gamma$和$b$是超参数,默认值为2,且$k$只取奇数,若计算结果为偶数则加1。

2.4优势

  • 参数和计算量方面
    • 与SE、LSE等相比,在保持较好性能的同时,能有效控制参数数量和计算量。例如在与LSE对比中,LSE参数数量和计算量一般与SE注意力机制乘以$ks * ks$相当,而MLCA通过特定设计避免了过多的参数和计算量增加。
    • 避免了通道维度降低带来的精度损失问题,因为通道维度降低虽能在一定程度上减少LSE模块的参数和计算量,但会牺牲精度。
      • 信息包含方面
    • 同时包含了通道信息和空间信息,克服了常见通道注意力方法只考虑通道关系而忽略空间信息的问题。
    • 融合了局部信息和全局信息,相比一些只提供全局长程信息的方法,能更好地表达网络特征。

论文:https://www.sciencedirect.com/science/article/abs/pii/S0952197623006267
源码: https://github.com/wandahangFY/MLCA

三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/143302799

目录
相关文章
|
机器学习/深度学习 算法 Python
【DYConv】CVPR2020 | 即插即用的动态卷积模块助力你涨点
【DYConv】CVPR2020 | 即插即用的动态卷积模块助力你涨点
1537 1
【DYConv】CVPR2020 | 即插即用的动态卷积模块助力你涨点
|
机器学习/深度学习
YOLOv8改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
YOLOv8改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
587 1
|
计算机视觉
YOLOv5改进 | 检测头篇 | 增加辅助检测头利用AFPN改进Head(附详细修改教程)
YOLOv5改进 | 检测头篇 | 增加辅助检测头利用AFPN改进Head(附详细修改教程)
853 0
|
机器学习/深度学习
YOLOv5改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
YOLOv5改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
754 0
|
10月前
|
机器学习/深度学习 编解码 算法
【YOLOv11改进 - 注意力机制】MLCA(Mixed local channel attention):混合局部通道注意力
【YOLOv11改进 - 注意力机制】MLCA(Mixed local channel attention):混合局部通道注意力本项目提出了一种轻量级的 Mixed Local Channel Attention (MLCA) 模块,结合通道信息和空间信息,提升网络表达效果。基于此模块,开发了 MobileNet-Attention-YOLO (MAY) 算法,在 Pascal VOC 和 SMID 数据集上表现优异,mAP 分别提高了 1.0% 和 1.5%。MLCA 通过局部池化、一维卷积和信息融合,有效捕获局部和全局信息。项目代码和详细配置可在 GitHub 和 CSDN 获取。
|
7月前
|
计算机视觉
YOLOv11改进策略【Neck】| GFPN 超越BiFPN 通过跳层连接和跨尺度连接改进v11颈部网络
YOLOv11改进策略【Neck】| GFPN 超越BiFPN 通过跳层连接和跨尺度连接改进v11颈部网络
1344 10
YOLOv11改进策略【Neck】| GFPN 超越BiFPN 通过跳层连接和跨尺度连接改进v11颈部网络
|
7月前
|
机器学习/深度学习 存储 TensorFlow
YOLOv11改进策略【Head】| (独家改进)轻量化检测头:利用 EfficientNet 中的移动倒置瓶颈模块 MBConv 改进检测头
YOLOv11改进策略【Head】| (独家改进)轻量化检测头:利用 EfficientNet 中的移动倒置瓶颈模块 MBConv 改进检测头
1552 11
YOLOv11改进策略【Head】| (独家改进)轻量化检测头:利用 EfficientNet 中的移动倒置瓶颈模块 MBConv 改进检测头
|
7月前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
YOLOv11改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
1891 2
YOLOv11改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
|
7月前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
562 1
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
|
7月前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)
814 12
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)