YOLOv8改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)

简介: YOLOv8改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)

一、本文介绍

本文带来的改进机制是MLCA(Mixed local channel attention)翻译来就是混合局部通道注意力,它结合了局部和全局特征以及通道和空间特征的信息,根据文章的内容来看他是一个轻量化的注意力机制,能够在增加少量参数量的情况下从而大幅度的提高检测精度(论文中是如此描述的),根据我的实验内容来看,该注意力机制确实参数量非常少,效果也算不错,而且官方的代码中提供了二次创新的思想和视频讲解非常推荐大家观看。

image.png

专栏回顾:YOLOv8改进系列专栏——本专栏持续复习各种顶会内容——科研必备

二、MLCA的基本框架原理

image.png

这张图片描述了混合局部通道注意力(MLCA)的结构和工作原理。它结合了局部和全局特征以及通道和空间特征的信息。下面我根据图片内容总结的它的工作流程:

1. 输入特征图(C,W,H)首先被局部平均池化(LAP)和全局平均池化(GAP)处理。局部池化关注局部区域的特征,而全局池化捕捉整个特征图的统计信息。

2. 局部池化后的特征和全局池化后的特征都经过一个1D卷积(Conv1d)来进行特征转换。此处的1D卷积用于压缩特征通道,同时保持空间维度不变。

3. 经过1D卷积后,特征被重新排列(Reshape),使其适应后续操作。

4. 对局部池化后的特征,使用1D卷积后进行重新排列,然后通过“乘法”操作(X)与原始输入特征相结合。这个过程相当于一种特征选择,强化了对有用特征的关注。

5. 对全局池化后的特征,经过1D卷积和重新排列后,通过“加法”操作与局部池化特征相结合。这个步骤在特征图中融合了全局上下文信息。

6. 最后,经过局部和全局注意力处理的特征图再次通过反池化(UNAP)操作,恢复到原始的空间维度。

7. 右侧的框图提供了MLCA的高级流程图,展示了从输入到输出的整体处理步骤。

总体来说,MLCA模块是为了在保持计算效率的同时,增强网络对于有用特征的捕捉能力。通过在局部和全局层面上结合通道和空间注意力,MLCA从而提高精度。

目录
相关文章
|
3月前
|
机器学习/深度学习
YOLOv5改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
YOLOv5改进 | 2023注意力篇 | MLCA混合局部通道注意力(轻量化注意力机制)
142 0
|
3月前
|
机器学习/深度学习 Ruby
YOLOv8改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
YOLOv8改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
186 0
|
3月前
|
机器学习/深度学习 Ruby
YOLOv5改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
YOLOv5改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
114 0
|
3月前
|
机器学习/深度学习
YOLOv8改进 | 注意力篇 | ACmix自注意力与卷积混合模型(提高FPS+检测效率)
YOLOv8改进 | 注意力篇 | ACmix自注意力与卷积混合模型(提高FPS+检测效率)
130 0
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
视觉 注意力机制——通道注意力、空间注意力、自注意力
本文介绍注意力机制的概念和基本原理,并站在计算机视觉CV角度,进一步介绍通道注意力、空间注意力、混合注意力、自注意力等。
746 0
|
3月前
|
机器学习/深度学习 计算机视觉
YOLOv8改进 | 2023注意力篇 | EMAttention注意力机制(附多个可添加位置)
YOLOv8改进 | 2023注意力篇 | EMAttention注意力机制(附多个可添加位置)
250 0
|
3月前
|
机器学习/深度学习 编解码 自动驾驶
全新ViT Backbone | PLG-ViT 同时具有并行局部和全局自注意力的轻量化视觉Transformer
全新ViT Backbone | PLG-ViT 同时具有并行局部和全局自注意力的轻量化视觉Transformer
71 0
|
3月前
|
机器学习/深度学习 编解码 算法
小目标检测新方法SCTransNet | 空间通道交叉Transformer & 互补前馈达成完美语义信息传递
小目标检测新方法SCTransNet | 空间通道交叉Transformer & 互补前馈达成完美语义信息传递
137 0
|
3月前
|
机器学习/深度学习 算法 数据可视化
YOLO+混合注意力机制 | YOLOv5再加4.3%才可以做对手,Transformer混合设计依旧可以卷
YOLO+混合注意力机制 | YOLOv5再加4.3%才可以做对手,Transformer混合设计依旧可以卷
68 0
|
3月前
|
机器学习/深度学习
YOLOv5改进 | 注意力篇 | ACmix自注意力与卷积混合模型(提高FPS+检测效率)
YOLOv5改进 | 注意力篇 | ACmix自注意力与卷积混合模型(提高FPS+检测效率)
48 0

热门文章

最新文章