YOLO11创新改进系列:卷积,主干 注意力,C3k2融合,检测头等创新机制(已更新100+)

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 《YOLO11目标检测创新改进与实战案例》专栏已更新100+篇文章,涵盖注意力机制、卷积优化、检测头创新、损失与IOU优化、轻量级网络设计等多方面内容。每周更新3-10篇,提供详细代码和实战案例,帮助您掌握最新研究和实用技巧。[专栏链接](https://blog.csdn.net/shangyanaf/category_12810477.html)

在这里插入图片描述

YOLO11目标检测创新改进与实战案例专栏介绍

💖💖💖目前已有100+ 篇,至少更新150+
其中包括注意力机制替换、卷积优化、检测头创新、损失与IOU优化、block优化与多层特征融合、轻量级网络设计、多创新点融合创新。

专栏链接: YOLO11目标检测创新改进与实战案例

  • 历史与前沿兼顾:我们不仅关注最新的研究成果,还会持续更新和回顾那些经过实践验证的改进机制。

  • 多方位网络改进

    【注意力机制替换】

    【卷积优化】

    【检测头创新】

    【损失与IOU优化】

    【轻量级网络设计】

    【多创新点融合】

    【C3k2融合创新】

  • 创新点代码:每篇文章都附带详细的步骤和源码,便于您的论文写作和项目实现。

  • 高频更新:每周发布3-10篇最新创新机制文章,确保时刻掌握前沿内容。

创新改进

原理解析

标题 创新点 链接
YOLOv11 正式发布!你需要知道什么? 另附:YOLOv8 与YOLOv11 各模型性能比较 原理解析 https://blog.csdn.net/shangyanaf/article/details/143053889
【YOLOv11改进- 原理解析】 YOLO11 架构解析 以及代码库关键代码逐行解析(1) 原理解析 https://blog.csdn.net/shangyanaf/article/details/143169764

注意力机制

标题 创新点 链接
1 【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143037077
2 【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143041421
3 【YOLOv11改进 - 注意力机制】 MSDA(Multi-Scale Dilated Attention):多尺度空洞注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143052542
4 【YOLOv11改进 - 注意力机制】iRMB: 倒置残差移动块,即插即用的轻量注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143052993
5 【YOLOv11改进 - 注意力机制】CoTAttention:上下文转换器注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143099154
6 【YOLOv11改进 - 注意力机制】GAM(Global Attention Mechanism):全局注意力机制,减少信息损失并放大全局维度交互特征 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143099416
7 【YOLOv11改进 - 注意力机制】MLCA(Mixed local channel attention):混合局部通道注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143099740
8 【YOLOv11改进 - 注意力机制】 MHSA:多头自注意力(Multi-Head Self-Attention) 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143107350
9 【YOLOv11改进 - 注意力机制】SimAM:轻量级注意力机制,解锁卷积神经网络新潜力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143107915
10 【YOLOv11改进 - 注意力机制】NAM:基于归一化的注意力模块,将权重稀疏惩罚应用于注意力机制中,提高效率性能 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143113290
11 【YOLOv11改进 - 注意力机制】SKAttention:聚合分支信息,实现自适应调整感受野大小 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143114359
12 【YOLOv11改进 - 注意力机制】DoubleAttention: 双重注意力机制,全局特征聚合和分配 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143134797
13 【YOLOv11改进 - 注意力机制】TripletAttention:轻量有效的三元注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143194262
14 【YOLOv11改进 - 注意力机制】ECA(Efficient Channel Attention):高效通道注意 模块,降低参数量 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143194441
15 【YOLOv11改进 - 注意力机制】MSCA: 多尺度卷积注意力,即插即用,助力小目标检测 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143194704
16 【YOLOv11改进 - 注意力机制】CoordAttention: 用于移动端的高效坐标注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143228656
17 【YOLOv11改进 - 注意力机制】DAT(Deformable Attention):可变性注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143229191
18 【YOLOv11改进 - 注意力机制】ContextAggregation : 上下文聚合模块,捕捉局部和全局上下文,增强特征表示 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143231533
19 【YOLOv11改进 - 注意力机制】EffectiveSE : 改进的通道注意力模块,减少计算复杂性和信息丢失 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143233243
20 【YOLOv11改进 - 注意力机制】S2Attention : 整合空间位移和分割注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143234560
21 【YOLOv11改进 - 注意力机制】Polarized Self-Attention: 极化自注意力 ,更精细的双重注意力建模结构 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143234817
22 【YOLOv11改进 - 注意力机制】LSKNet(Large Selective Kernel Network ):空间选择注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143236398
23 【YOLOv11改进 - 注意力机制】CPCA(Channel prior convolutional attention)中的通道注意力,增强特征表征能力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143237411
24 【YOLOv11改进 - 注意力机制】MCA:用于图像识别的深度卷积神经网络中的多维协作注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143237904
25 【YOLOv11改进 - 注意力机制】HCF-Net 之 PPA:并行化注意力设计 \ 小目标 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143248254
26 【YOLOv11改进 - 注意力机制】LS-YOLO MSFE:新颖的多尺度特征提取模块 \ 小目标/遥感 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143248466
27 【YOLOv11改进 - 注意力机制】Sea_Attention: Squeeze-enhanced Axial Attention,结合全局语义提取和局部细节增强 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143249013
28 【YOLOv11改进 - 注意力机制】Non-Local:基于非局部均值去噪滤波的自注意力模型 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143249185
29 【YOLOv11改进 - 注意力机制】RCS-OSA :减少通道的空间对象注意力,高效且涨点 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143256430
30 【YOLOv11改进 -注意力机制】SGE(Spatial Group-wise Enhance):轻量级空间分组增强模块 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143257237
31 【YOLOv11改进 -注意力机制】Mamba之MLLAttention :基于Mamba和线性注意力Transformer的模型 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143258679
32 【YOLOv11改进 - 注意力机制】Gather-Excite : 提高网络捕获长距离特征交互的能力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143258799
33 【YOLOv11改进 - 注意力机制】 CAA: 上下文锚点注意力模块,处理尺度变化大或长形目标 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143259390
34 【YOLOv11改进 - 注意力机制】Focused Linear Attention :全新的聚焦线性注意力模块 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143259521
35 【YOLOv11改进 - 注意力机制】 CascadedGroupAttention:级联组注意力,增强视觉Transformer中多头自注意力机制的效率和有效性 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143261498
36 【YOLOv11改进 - 注意力机制】SENetV2: 用于通道和全局表示的聚合稠密层,结合SE模块和密集层来增强特征表示 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143261561
37 【YOLOv11改进 - 注意力机制】 CBAM:针对卷积神经网络(CNN)设计的新型注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143261800
38 【YOLOv11改进 - 注意力机制】 ParNet :并行子网络结构实现低深度但高性能的神经网络架构 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143289302
39 【YOLOv11改进 - 注意力机制】GC Block (GlobalContext): 全局上下文块,高效捕获特征图中的全局依赖关系 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143315500
40 【YOLO11改进 - 注意力机制】Dual-ViT(Dual Vision Transformer):将自注意力的建模分解为对全局语义和细粒度特征的学习 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143321942
41 【YOLO11改进 - 注意力机制】HAT(Hybrid Attention Transformer,)超分辨率混合注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143323349
42 【YOLO11改进 - 注意力机制】ELA(Efficient Local Attention):深度卷积神经网络的高效局部注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143324666
43 【YOLO11改进 - 注意力机制】STA(Super Token Attention) 超级令牌注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143350954
44 【YOLO11改进 - 注意力机制】Deformable-LKA Attention:可变形大核注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143351139
45 【YOLO11改进 - 注意力机制】BRA(bi-level routing attention )双层路由注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143351336
46 【YOLO11改进 - 注意力机制】GCT(Gaussian Context Transformer):高斯上下文变换器 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143370762
47 【YOLO11改进 - 注意力机制】HCF-Net 之 MDCR:多稀释通道细化器模块 ,以不同的稀释率捕捉各种感受野大小的空间特征 \ 小目标 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143390431
48 【YOLO11改进 - 注意力机制】HCF-Net 之 DASI: 维度感知选择性整合模块 \ 小目标 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143407057

CONV

标题 创新点 链接
1 【YOLOv11改进-卷积Conv 】 AKConv(可改变核卷积):任意数量的参数和任意采样形状的即插即用的卷积 CONV https://blog.csdn.net/shangyanaf/article/details/142998598
2 【YOLOv11改进-卷积Conv】 ParameterNet:DynamicConv(Dynamic Convolution):2024最新动态卷积 CONV https://blog.csdn.net/shangyanaf/article/details/143023455
3 【YOLOv11改进-卷积Conv】 ODConv(Omni-Dimensional Dynamic Convolution):全维度动态卷积 CONV https://blog.csdn.net/shangyanaf/article/details/143023997
4 【YOLOv11改进-卷积Conv】 SAConv(Switchable Atrous Convolution):可切换的空洞卷积 CONV https://blog.csdn.net/shangyanaf/article/details/143098353
5 【YOLOv11改进-卷积Conv】DualConv( Dual Convolutional):用于轻量级深度神经网络的双卷积核 CONV https://blog.csdn.net/shangyanaf/article/details/143099245
6 【YOLOv11改进 - 卷积Conv】SPConv:去除特征图中的冗余,大幅减少参数数量 \ 小目标 CONV https://blog.csdn.net/shangyanaf/article/details/143194890
7 【YOLOv11改进 - 卷积Conv】SCConv :即插即用的空间和通道重建卷积 CONV https://blog.csdn.net/shangyanaf/article/details/143207088
8 【YOLOv11改进 - 卷积Conv】 SPD-Conv空间深度转换卷积,处理低分辨率图像和小目标问题 CONV https://blog.csdn.net/shangyanaf/article/details/143220921
9 【YOLOv11改进 - 卷积Conv】RFAConv:感受野注意力卷积,创新空间注意力 CONV https://blog.csdn.net/shangyanaf/article/details/143221086
10 【YOLOv11改进-卷积Conv】 OREPA(Online Convolutional Re-parameterization):在线卷积重参数化 CONV https://blog.csdn.net/shangyanaf/article/details/143221336
11 【YOLOv11改进 - 卷积Conv】 RFB (Receptive Field Block):多分支卷积块 CONV https://blog.csdn.net/shangyanaf/article/details/143237656
12 【YOLOv11改进 - 卷积Conv】Diverse Branch Block(DBB):多样分支模块 CONV https://blog.csdn.net/shangyanaf/article/details/143301409
13 【YOLO11改进 - 卷积Conv】RefConv:重新参数化的重聚焦卷积模块 CONV https://blog.csdn.net/shangyanaf/article/details/143351548

其他

标题 创新点 链接
1 【YOLOv11改进 - 混合卷积注意力机制】ACmix(Mixed Self-Attention and Convolution) :自注意力与卷积混合模型 混合卷积注意力机制 https://blog.csdn.net/shangyanaf/article/details/142981217
2 【YOLOv11改进 - 注意力机制】CAFM(Convolution and Attention Fusion Module):卷积和注意力融合模块 混合卷积注意力机制 https://blog.csdn.net/shangyanaf/article/details/143248692
3 【YOLOv11改进】ADown:YOLOv9轻量化下采样操作 下采样 https://blog.csdn.net/shangyanaf/article/details/143315609
4 【YOLOv11改进 - SPPF】发论文神器!LSKA注意力改进SPPF,增强多尺度特征提取能力,高效涨点!!! SPPF https://blog.csdn.net/shangyanaf/article/details/143258938
5 【YOLOv11改进-SPPF】 Focal Modulation :使用焦点调制模块替代SPPF SPPF https://blog.csdn.net/shangyanaf/article/details/143280849
6 【YOLO11改进 - SPPF】 AIFI : 基于注意力的尺度内特征交互,保持高准确度的同时减少计算成本 SPPF https://blog.csdn.net/shangyanaf/article/details/143388430
7 【YOLO11改进 - 采样】HWD: Haar小波降采样,用于语义分割的降采样模块,减少特征图的空间分辨率 采样 https://blog.csdn.net/shangyanaf/article/details/143429137

特征融合

标题 创新点 链接
1 【YOLOv11改进 - 特征融合】SDI:多层次特征融合模块,替换contact操作 特征融合 https://blog.csdn.net/shangyanaf/article/details/143233436
2 【YOLOv11改进 - 特征融合】 GELAN:YOLOV9 通用高效层聚合网络,高效且涨点 特征融合 https://blog.csdn.net/shangyanaf/article/details/143256244
3 【YOLOv11改进 - 特征融合】Slim-neck:目标检测新范式,既轻量又涨点 特征融合 https://blog.csdn.net/shangyanaf/article/details/143314827
4 【YOLOv11改进 - 特征融合NECK】CARAFE:轻量级新型上采样算子,助力细节提升 特征融合 https://blog.csdn.net/shangyanaf/article/details/143134074
5 【YOLOv11改进 - 特征融合】DySample :超轻量级且高效的动态上采样器 特征融合 https://blog.csdn.net/shangyanaf/article/details/143248563
6 【YOLO11改进 - 特征融合】FFCA-YOLO: 提升遥感图像中小目标检测的精度和鲁棒性 特征融合 https://blog.csdn.net/shangyanaf/article/details/143386943
7 【YOLO11改进 - 特征融合】 GIRAFFEDET之GFPN :广义特征金字塔网络,高效地融合多尺度特征 特征融合 https://blog.csdn.net/shangyanaf/article/details/143530088
8 【YOLO11改进 - 特征融合】ASF-YOLO:SSFF融合+TPE编码+CPAM注意力,提高检测和分割能力 特征融合 https://blog.csdn.net/shangyanaf/article/details/143530787

主干

标题 创新点 链接
1 【YOLOv11改进 - Backbone主干】EfficientRep:一种旨在提高硬件效率的RepVGG风格卷积神经网络架构 Backbone https://blog.csdn.net/shangyanaf/article/details/143315275
2 【YOLOv11改进 - Backbone主干】清华大学CloFormer AttnConv :利用共享权重和上下文感知权重增强局部感知,注意力机制与卷积的完美融合 Backbone https://blog.csdn.net/shangyanaf/article/details/143315038
3 【YOLO11改进 - Backbone主干】2024最新轻量化网络MobileNetV4替换YOLO11的BackBone Backbone https://blog.csdn.net/shangyanaf/article/details/143494907
4 【YOLO11改进 - Backbone主干】微软 EfficientViT替换YOLO11的BackBone: 高效视觉transformer与级联组注意力,平衡速度与精度 Backbone https://blog.csdn.net/shangyanaf/article/details/143496026
5 【YOLO11改进 - Backbone主干】FasterNet:基于PConv(部分卷积)的神经网络,提升精度与速度,降低参数量。 Backbone https://blog.csdn.net/shangyanaf/article/details/143506618
6 【YOLO11改进】SwinTransformer骨干网络: 基于位移窗口的层次化视觉变换器 Backbone https://blog.csdn.net/shangyanaf/article/details/143529324

C3k2融合

标题 创新点 链接
1 【YOLO11改进 - C3k2融合】C3k2融合SCConv(Self-Calibrated Convolutions): 自校准卷积 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143335641
2 【YOLO11改进 - C3k2融合】C3k2融合SCConv( Spatial and Channel Reconstruction Convolution) :即插即用的空间和通道重建卷积 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143335895
3 【YOLO11改进 - C3k2融合】C3k2融合Diverse Branch Block(DBB)二次创新:多样分支模块 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143350687
4 【YOLO11改进 - C3k2融合】C3k2融合PPA二次创新:并行化注意力设计 \ 小目标 C3k2融合 \ 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143332221
5 【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143358187
6 【YOLO11改进 - C3k2融合】C3k2融合动态蛇形卷积(Dynamic Snake Convolution)用于管状结构分割任务 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143431559
7 【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143435663
8 【YOLO11改进 - C3k2融合】C3k2融合DWRSeg二次创新C3k2_DWRSeg:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143494332
9 【YOLO11改进 - C3k2融合】C3k2融合Deformable-LKA二次创新C3k2_DLKA:可变形大核注意力 C3k2融合 \ 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143494142
10 【YOLO11改进 - 特征融合】C3k2融合ODConv(Omni-Dimensional Dynamic Convolution):全维度动态卷积 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143532233

多模块融合改进

标题 创新点 链接
1 【YOLO11改进- 多模块融合改进】CPCA + CARAFE : 通道先验卷积注意力与上采样算子的融合改进,助力细节提升! 多模块融合改进 https://blog.csdn.net/shangyanaf/article/details/143428926
2 【YOLO11改进- 多模块融合改进】GhostConv + ContextAggregation 幽灵卷积与上下文聚合模块融合改进,助力小目标高效涨点 多模块融合改进 https://blog.csdn.net/shangyanaf/article/details/143434474
3 【YOLO11改进- 多模块融合改进】ResBlock + CBAM: 基于ResBlock的通道+空间注意力,增强特证提取 多模块融合改进 https://blog.csdn.net/shangyanaf/article/details/143369644
4 【YOLO11改进- 多模块融合改进】ResBlock + GAM: 基于ResBlock的全局注意力机制ResBlock_ GAM,增强特证提取 多模块融合改进 https://blog.csdn.net/shangyanaf/article/details/143369878
相关文章
|
6月前
|
机器学习/深度学习 编解码 文件存储
YOLOv8改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
YOLOv8改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
809 1
|
6月前
|
机器学习/深度学习 编解码 文件存储
YOLOv5改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
YOLOv5改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
1288 1
|
6月前
|
机器学习/深度学习 编解码 自然语言处理
YOLOv8改进 | 主干篇 | RevColV1可逆列网络(特征解耦助力小目标检测)
YOLOv8改进 | 主干篇 | RevColV1可逆列网络(特征解耦助力小目标检测)
283 0
YOLOv8改进 | 主干篇 | RevColV1可逆列网络(特征解耦助力小目标检测)
|
24天前
|
机器学习/深度学习 数据可视化 测试技术
YOLO11实战:新颖的多尺度卷积注意力(MSCA)加在网络不同位置的涨点情况 | 创新点如何在自己数据集上高效涨点,解决不涨点掉点等问题
本文探讨了创新点在自定义数据集上表现不稳定的问题,分析了不同数据集和网络位置对创新效果的影响。通过在YOLO11的不同位置引入MSCAAttention模块,展示了三种不同的改进方案及其效果。实验结果显示,改进方案在mAP50指标上分别提升了至0.788、0.792和0.775。建议多尝试不同配置,找到最适合特定数据集的解决方案。
184 0
|
4天前
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目DWRSeg是一种高效的实时语义分割网络,通过将多尺度特征提取分为区域残差化和语义残差化两步,提高了特征提取效率。它引入了Dilation-wise Residual (DWR) 和 Simple Inverted Residual (SIR) 模块,优化了不同网络阶段的感受野。在Cityscapes和CamVid数据集上的实验表明,DWRSeg在准确性和推理速度之间取得了最佳平衡,达到了72.7%的mIoU,每秒319.5帧。代码和模型已公开。
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
|
4月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进 - 特征融合】 YOGA iAFF :注意力机制在颈部的多尺度特征融合
【YOLOv8改进 - 特征融合】 YOGA iAFF :注意力机制在颈部的多尺度特征融合
|
10天前
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构
【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构
|
20天前
|
机器学习/深度学习 编解码 负载均衡
MoH:融合混合专家机制的高效多头注意力模型及其在视觉语言任务中的应用
本文提出了一种名为混合头注意力(MoH)的新架构,旨在提高Transformer模型中注意力机制的效率。MoH通过动态注意力头路由机制,使每个token能够自适应选择合适的注意力头,从而在减少激活头数量的同时保持或提升模型性能。实验结果显示,MoH在图像分类、类条件图像生成和大语言模型等多个任务中均表现出色,尤其在减少计算资源消耗方面有显著优势。
35 1
|
3月前
|
知识图谱 索引
Sora视频重建与创新路线问题之Temporal Transformer中的自注意力模块是如何运行的
Sora视频重建与创新路线问题之Temporal Transformer中的自注意力模块是如何运行的
|
4月前
|
机器学习/深度学习 移动开发 自然语言处理
【YOLOv8改进- 多模块融合改进】GhostConv + ContextAggregation 幽灵卷积与上下文聚合模块融合改进,助力小目标高效涨点
【YOLOv8改进- 多模块融合改进】GhostConv + ContextAggregation 幽灵卷积与上下文聚合模块融合改进,助力小目标高效涨点