YOLOv8改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)

简介: YOLOv8改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)

一、本文介绍

本文带来的改进机制是MLCA(Mixed local channel attention)翻译来就是混合局部通道注意力,它结合了局部和全局特征以及通道和空间特征的信息,根据文章的内容来看他是一个轻量化的注意力机制,能够在增加少量参数量的情况下从而大幅度的提高检测精度(论文中是如此描述的),根据我的实验内容来看,该注意力机制确实参数量非常少,效果也算不错,而且官方的代码中提供了二次创新的思想和视频讲解非常推荐大家观看。

image.png

专栏回顾:YOLOv8改进系列专栏——本专栏持续复习各种顶会内容——科研必备

二、MLCA的基本框架原理

image.png

这张图片描述了混合局部通道注意力(MLCA)的结构和工作原理。它结合了局部和全局特征以及通道和空间特征的信息。下面我根据图片内容总结的它的工作流程:

1. 输入特征图(C,W,H)首先被局部平均池化(LAP)和全局平均池化(GAP)处理。局部池化关注局部区域的特征,而全局池化捕捉整个特征图的统计信息。

2. 局部池化后的特征和全局池化后的特征都经过一个1D卷积(Conv1d)来进行特征转换。此处的1D卷积用于压缩特征通道,同时保持空间维度不变。

3. 经过1D卷积后,特征被重新排列(Reshape),使其适应后续操作。

4. 对局部池化后的特征,使用1D卷积后进行重新排列,然后通过“乘法”操作(X)与原始输入特征相结合。这个过程相当于一种特征选择,强化了对有用特征的关注。

5. 对全局池化后的特征,经过1D卷积和重新排列后,通过“加法”操作与局部池化特征相结合。这个步骤在特征图中融合了全局上下文信息。

6. 最后,经过局部和全局注意力处理的特征图再次通过反池化(UNAP)操作,恢复到原始的空间维度。

7. 右侧的框图提供了MLCA的高级流程图,展示了从输入到输出的整体处理步骤。

总体来说,MLCA模块是为了在保持计算效率的同时,增强网络对于有用特征的捕捉能力。通过在局部和全局层面上结合通道和空间注意力,MLCA从而提高精度。

Snu77
+关注
目录
打赏
0
1
1
0
36
分享
相关文章
YOLOv5改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
YOLOv5改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
560 0
YOLOv8改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
YOLOv8改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
796 0
YOLOv5改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
YOLOv5改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
426 0
YOLOv8改进 | 注意力篇 | ACmix自注意力与卷积混合模型(提高FPS+检测效率)
YOLOv8改进 | 注意力篇 | ACmix自注意力与卷积混合模型(提高FPS+检测效率)
382 0
视觉 注意力机制——通道注意力、空间注意力、自注意力
本文介绍注意力机制的概念和基本原理,并站在计算机视觉CV角度,进一步介绍通道注意力、空间注意力、混合注意力、自注意力等。
6486 0
YOLOv11改进策略【Conv和Transformer】| GRSL-2024最新模块 卷积和自注意力融合模块 CAFM 减少图像中的噪声干扰
YOLOv11改进策略【Conv和Transformer】| GRSL-2024最新模块 卷积和自注意力融合模块 CAFM 减少图像中的噪声干扰
47 7
YOLOv11改进策略【Conv和Transformer】| GRSL-2024最新模块 卷积和自注意力融合模块 CAFM 减少图像中的噪声干扰
YOLOv11改进策略【注意力机制篇】| CVPRW-2024 分层互补注意力混合层 H-RAMi 针对低质量图像的特征提取模块
YOLOv11改进策略【注意力机制篇】| CVPRW-2024 分层互补注意力混合层 H-RAMi 针对低质量图像的特征提取模块
24 1
YOLOv11改进策略【注意力机制篇】| CVPRW-2024 分层互补注意力混合层 H-RAMi 针对低质量图像的特征提取模块
YOLOv11改进策略【注意力机制篇】| NAM注意力 即插即用模块,重新优化通道和空间注意力
YOLOv11改进策略【注意力机制篇】| NAM注意力 即插即用模块,重新优化通道和空间注意力
26 2
YOLOv11改进策略【注意力机制篇】| NAM注意力 即插即用模块,重新优化通道和空间注意力
YOLOv11改进策略【注意力机制篇】| WACV-2021 Triplet Attention 三重注意力模块 - 跨维度交互注意力机制优化
YOLOv11改进策略【注意力机制篇】| WACV-2021 Triplet Attention 三重注意力模块 - 跨维度交互注意力机制优化
28 1
YOLOv11改进策略【注意力机制篇】| WACV-2021 Triplet Attention 三重注意力模块 - 跨维度交互注意力机制优化
RT-DETR改进策略【注意力机制篇】| CVPRW-2024 分层互补注意力混合层 H-RAMi 针对低质量图像的特征提取模块
RT-DETR改进策略【注意力机制篇】| CVPRW-2024 分层互补注意力混合层 H-RAMi 针对低质量图像的特征提取模块
18 0
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等