YOLO11创新改进系列:卷积,主干 注意力,C3k2融合,检测头等创新机制(已更新100+)

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 《YOLO11目标检测创新改进与实战案例》专栏已更新100+篇文章,涵盖注意力机制、卷积优化、检测头创新、损失与IOU优化、轻量级网络设计等多方面内容。每周更新3-10篇,提供详细代码和实战案例,帮助您掌握最新研究和实用技巧。[专栏链接](https://blog.csdn.net/shangyanaf/category_12810477.html)

在这里插入图片描述

YOLO11目标检测创新改进与实战案例专栏介绍

💖💖💖目前已有100+ 篇,至少更新150+
其中包括注意力机制替换、卷积优化、检测头创新、损失与IOU优化、block优化与多层特征融合、轻量级网络设计、多创新点融合创新。

专栏链接: YOLO11目标检测创新改进与实战案例

  • 历史与前沿兼顾:我们不仅关注最新的研究成果,还会持续更新和回顾那些经过实践验证的改进机制。

  • 多方位网络改进

    【注意力机制替换】

    【卷积优化】

    【检测头创新】

    【损失与IOU优化】

    【轻量级网络设计】

    【多创新点融合】

    【C3k2融合创新】

  • 创新点代码:每篇文章都附带详细的步骤和源码,便于您的论文写作和项目实现。

  • 高频更新:每周发布3-10篇最新创新机制文章,确保时刻掌握前沿内容。

创新改进

原理解析

标题 创新点 链接
YOLOv11 正式发布!你需要知道什么? 另附:YOLOv8 与YOLOv11 各模型性能比较 原理解析 https://blog.csdn.net/shangyanaf/article/details/143053889
【YOLOv11改进- 原理解析】 YOLO11 架构解析 以及代码库关键代码逐行解析(1) 原理解析 https://blog.csdn.net/shangyanaf/article/details/143169764

注意力机制

标题 创新点 链接
1 【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143037077
2 【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143041421
3 【YOLOv11改进 - 注意力机制】 MSDA(Multi-Scale Dilated Attention):多尺度空洞注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143052542
4 【YOLOv11改进 - 注意力机制】iRMB: 倒置残差移动块,即插即用的轻量注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143052993
5 【YOLOv11改进 - 注意力机制】CoTAttention:上下文转换器注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143099154
6 【YOLOv11改进 - 注意力机制】GAM(Global Attention Mechanism):全局注意力机制,减少信息损失并放大全局维度交互特征 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143099416
7 【YOLOv11改进 - 注意力机制】MLCA(Mixed local channel attention):混合局部通道注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143099740
8 【YOLOv11改进 - 注意力机制】 MHSA:多头自注意力(Multi-Head Self-Attention) 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143107350
9 【YOLOv11改进 - 注意力机制】SimAM:轻量级注意力机制,解锁卷积神经网络新潜力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143107915
10 【YOLOv11改进 - 注意力机制】NAM:基于归一化的注意力模块,将权重稀疏惩罚应用于注意力机制中,提高效率性能 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143113290
11 【YOLOv11改进 - 注意力机制】SKAttention:聚合分支信息,实现自适应调整感受野大小 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143114359
12 【YOLOv11改进 - 注意力机制】DoubleAttention: 双重注意力机制,全局特征聚合和分配 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143134797
13 【YOLOv11改进 - 注意力机制】TripletAttention:轻量有效的三元注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143194262
14 【YOLOv11改进 - 注意力机制】ECA(Efficient Channel Attention):高效通道注意 模块,降低参数量 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143194441
15 【YOLOv11改进 - 注意力机制】MSCA: 多尺度卷积注意力,即插即用,助力小目标检测 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143194704
16 【YOLOv11改进 - 注意力机制】CoordAttention: 用于移动端的高效坐标注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143228656
17 【YOLOv11改进 - 注意力机制】DAT(Deformable Attention):可变性注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143229191
18 【YOLOv11改进 - 注意力机制】ContextAggregation : 上下文聚合模块,捕捉局部和全局上下文,增强特征表示 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143231533
19 【YOLOv11改进 - 注意力机制】EffectiveSE : 改进的通道注意力模块,减少计算复杂性和信息丢失 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143233243
20 【YOLOv11改进 - 注意力机制】S2Attention : 整合空间位移和分割注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143234560
21 【YOLOv11改进 - 注意力机制】Polarized Self-Attention: 极化自注意力 ,更精细的双重注意力建模结构 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143234817
22 【YOLOv11改进 - 注意力机制】LSKNet(Large Selective Kernel Network ):空间选择注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143236398
23 【YOLOv11改进 - 注意力机制】CPCA(Channel prior convolutional attention)中的通道注意力,增强特征表征能力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143237411
24 【YOLOv11改进 - 注意力机制】MCA:用于图像识别的深度卷积神经网络中的多维协作注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143237904
25 【YOLOv11改进 - 注意力机制】HCF-Net 之 PPA:并行化注意力设计 \ 小目标 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143248254
26 【YOLOv11改进 - 注意力机制】LS-YOLO MSFE:新颖的多尺度特征提取模块 \ 小目标/遥感 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143248466
27 【YOLOv11改进 - 注意力机制】Sea_Attention: Squeeze-enhanced Axial Attention,结合全局语义提取和局部细节增强 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143249013
28 【YOLOv11改进 - 注意力机制】Non-Local:基于非局部均值去噪滤波的自注意力模型 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143249185
29 【YOLOv11改进 - 注意力机制】RCS-OSA :减少通道的空间对象注意力,高效且涨点 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143256430
30 【YOLOv11改进 -注意力机制】SGE(Spatial Group-wise Enhance):轻量级空间分组增强模块 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143257237
31 【YOLOv11改进 -注意力机制】Mamba之MLLAttention :基于Mamba和线性注意力Transformer的模型 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143258679
32 【YOLOv11改进 - 注意力机制】Gather-Excite : 提高网络捕获长距离特征交互的能力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143258799
33 【YOLOv11改进 - 注意力机制】 CAA: 上下文锚点注意力模块,处理尺度变化大或长形目标 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143259390
34 【YOLOv11改进 - 注意力机制】Focused Linear Attention :全新的聚焦线性注意力模块 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143259521
35 【YOLOv11改进 - 注意力机制】 CascadedGroupAttention:级联组注意力,增强视觉Transformer中多头自注意力机制的效率和有效性 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143261498
36 【YOLOv11改进 - 注意力机制】SENetV2: 用于通道和全局表示的聚合稠密层,结合SE模块和密集层来增强特征表示 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143261561
37 【YOLOv11改进 - 注意力机制】 CBAM:针对卷积神经网络(CNN)设计的新型注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143261800
38 【YOLOv11改进 - 注意力机制】 ParNet :并行子网络结构实现低深度但高性能的神经网络架构 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143289302
39 【YOLOv11改进 - 注意力机制】GC Block (GlobalContext): 全局上下文块,高效捕获特征图中的全局依赖关系 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143315500
40 【YOLO11改进 - 注意力机制】Dual-ViT(Dual Vision Transformer):将自注意力的建模分解为对全局语义和细粒度特征的学习 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143321942
41 【YOLO11改进 - 注意力机制】HAT(Hybrid Attention Transformer,)超分辨率混合注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143323349
42 【YOLO11改进 - 注意力机制】ELA(Efficient Local Attention):深度卷积神经网络的高效局部注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143324666
43 【YOLO11改进 - 注意力机制】STA(Super Token Attention) 超级令牌注意力机制 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143350954
44 【YOLO11改进 - 注意力机制】Deformable-LKA Attention:可变形大核注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143351139
45 【YOLO11改进 - 注意力机制】BRA(bi-level routing attention )双层路由注意力 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143351336
46 【YOLO11改进 - 注意力机制】GCT(Gaussian Context Transformer):高斯上下文变换器 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143370762
47 【YOLO11改进 - 注意力机制】HCF-Net 之 MDCR:多稀释通道细化器模块 ,以不同的稀释率捕捉各种感受野大小的空间特征 \ 小目标 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143390431
48 【YOLO11改进 - 注意力机制】HCF-Net 之 DASI: 维度感知选择性整合模块 \ 小目标 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143407057

CONV

标题 创新点 链接
1 【YOLOv11改进-卷积Conv 】 AKConv(可改变核卷积):任意数量的参数和任意采样形状的即插即用的卷积 CONV https://blog.csdn.net/shangyanaf/article/details/142998598
2 【YOLOv11改进-卷积Conv】 ParameterNet:DynamicConv(Dynamic Convolution):2024最新动态卷积 CONV https://blog.csdn.net/shangyanaf/article/details/143023455
3 【YOLOv11改进-卷积Conv】 ODConv(Omni-Dimensional Dynamic Convolution):全维度动态卷积 CONV https://blog.csdn.net/shangyanaf/article/details/143023997
4 【YOLOv11改进-卷积Conv】 SAConv(Switchable Atrous Convolution):可切换的空洞卷积 CONV https://blog.csdn.net/shangyanaf/article/details/143098353
5 【YOLOv11改进-卷积Conv】DualConv( Dual Convolutional):用于轻量级深度神经网络的双卷积核 CONV https://blog.csdn.net/shangyanaf/article/details/143099245
6 【YOLOv11改进 - 卷积Conv】SPConv:去除特征图中的冗余,大幅减少参数数量 \ 小目标 CONV https://blog.csdn.net/shangyanaf/article/details/143194890
7 【YOLOv11改进 - 卷积Conv】SCConv :即插即用的空间和通道重建卷积 CONV https://blog.csdn.net/shangyanaf/article/details/143207088
8 【YOLOv11改进 - 卷积Conv】 SPD-Conv空间深度转换卷积,处理低分辨率图像和小目标问题 CONV https://blog.csdn.net/shangyanaf/article/details/143220921
9 【YOLOv11改进 - 卷积Conv】RFAConv:感受野注意力卷积,创新空间注意力 CONV https://blog.csdn.net/shangyanaf/article/details/143221086
10 【YOLOv11改进-卷积Conv】 OREPA(Online Convolutional Re-parameterization):在线卷积重参数化 CONV https://blog.csdn.net/shangyanaf/article/details/143221336
11 【YOLOv11改进 - 卷积Conv】 RFB (Receptive Field Block):多分支卷积块 CONV https://blog.csdn.net/shangyanaf/article/details/143237656
12 【YOLOv11改进 - 卷积Conv】Diverse Branch Block(DBB):多样分支模块 CONV https://blog.csdn.net/shangyanaf/article/details/143301409
13 【YOLO11改进 - 卷积Conv】RefConv:重新参数化的重聚焦卷积模块 CONV https://blog.csdn.net/shangyanaf/article/details/143351548

其他

标题 创新点 链接
1 【YOLOv11改进 - 混合卷积注意力机制】ACmix(Mixed Self-Attention and Convolution) :自注意力与卷积混合模型 混合卷积注意力机制 https://blog.csdn.net/shangyanaf/article/details/142981217
2 【YOLOv11改进 - 注意力机制】CAFM(Convolution and Attention Fusion Module):卷积和注意力融合模块 混合卷积注意力机制 https://blog.csdn.net/shangyanaf/article/details/143248692
3 【YOLOv11改进】ADown:YOLOv9轻量化下采样操作 下采样 https://blog.csdn.net/shangyanaf/article/details/143315609
4 【YOLOv11改进 - SPPF】发论文神器!LSKA注意力改进SPPF,增强多尺度特征提取能力,高效涨点!!! SPPF https://blog.csdn.net/shangyanaf/article/details/143258938
5 【YOLOv11改进-SPPF】 Focal Modulation :使用焦点调制模块替代SPPF SPPF https://blog.csdn.net/shangyanaf/article/details/143280849
6 【YOLO11改进 - SPPF】 AIFI : 基于注意力的尺度内特征交互,保持高准确度的同时减少计算成本 SPPF https://blog.csdn.net/shangyanaf/article/details/143388430
7 【YOLO11改进 - 采样】HWD: Haar小波降采样,用于语义分割的降采样模块,减少特征图的空间分辨率 采样 https://blog.csdn.net/shangyanaf/article/details/143429137

特征融合

标题 创新点 链接
1 【YOLOv11改进 - 特征融合】SDI:多层次特征融合模块,替换contact操作 特征融合 https://blog.csdn.net/shangyanaf/article/details/143233436
2 【YOLOv11改进 - 特征融合】 GELAN:YOLOV9 通用高效层聚合网络,高效且涨点 特征融合 https://blog.csdn.net/shangyanaf/article/details/143256244
3 【YOLOv11改进 - 特征融合】Slim-neck:目标检测新范式,既轻量又涨点 特征融合 https://blog.csdn.net/shangyanaf/article/details/143314827
4 【YOLOv11改进 - 特征融合NECK】CARAFE:轻量级新型上采样算子,助力细节提升 特征融合 https://blog.csdn.net/shangyanaf/article/details/143134074
5 【YOLOv11改进 - 特征融合】DySample :超轻量级且高效的动态上采样器 特征融合 https://blog.csdn.net/shangyanaf/article/details/143248563
6 【YOLO11改进 - 特征融合】FFCA-YOLO: 提升遥感图像中小目标检测的精度和鲁棒性 特征融合 https://blog.csdn.net/shangyanaf/article/details/143386943
7 【YOLO11改进 - 特征融合】 GIRAFFEDET之GFPN :广义特征金字塔网络,高效地融合多尺度特征 特征融合 https://blog.csdn.net/shangyanaf/article/details/143530088
8 【YOLO11改进 - 特征融合】ASF-YOLO:SSFF融合+TPE编码+CPAM注意力,提高检测和分割能力 特征融合 https://blog.csdn.net/shangyanaf/article/details/143530787

主干

标题 创新点 链接
1 【YOLOv11改进 - Backbone主干】EfficientRep:一种旨在提高硬件效率的RepVGG风格卷积神经网络架构 Backbone https://blog.csdn.net/shangyanaf/article/details/143315275
2 【YOLOv11改进 - Backbone主干】清华大学CloFormer AttnConv :利用共享权重和上下文感知权重增强局部感知,注意力机制与卷积的完美融合 Backbone https://blog.csdn.net/shangyanaf/article/details/143315038
3 【YOLO11改进 - Backbone主干】2024最新轻量化网络MobileNetV4替换YOLO11的BackBone Backbone https://blog.csdn.net/shangyanaf/article/details/143494907
4 【YOLO11改进 - Backbone主干】微软 EfficientViT替换YOLO11的BackBone: 高效视觉transformer与级联组注意力,平衡速度与精度 Backbone https://blog.csdn.net/shangyanaf/article/details/143496026
5 【YOLO11改进 - Backbone主干】FasterNet:基于PConv(部分卷积)的神经网络,提升精度与速度,降低参数量。 Backbone https://blog.csdn.net/shangyanaf/article/details/143506618
6 【YOLO11改进】SwinTransformer骨干网络: 基于位移窗口的层次化视觉变换器 Backbone https://blog.csdn.net/shangyanaf/article/details/143529324

C3k2融合

标题 创新点 链接
1 【YOLO11改进 - C3k2融合】C3k2融合SCConv(Self-Calibrated Convolutions): 自校准卷积 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143335641
2 【YOLO11改进 - C3k2融合】C3k2融合SCConv( Spatial and Channel Reconstruction Convolution) :即插即用的空间和通道重建卷积 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143335895
3 【YOLO11改进 - C3k2融合】C3k2融合Diverse Branch Block(DBB)二次创新:多样分支模块 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143350687
4 【YOLO11改进 - C3k2融合】C3k2融合PPA二次创新:并行化注意力设计 \ 小目标 C3k2融合 \ 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143332221
5 【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143358187
6 【YOLO11改进 - C3k2融合】C3k2融合动态蛇形卷积(Dynamic Snake Convolution)用于管状结构分割任务 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143431559
7 【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143435663
8 【YOLO11改进 - C3k2融合】C3k2融合DWRSeg二次创新C3k2_DWRSeg:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143494332
9 【YOLO11改进 - C3k2融合】C3k2融合Deformable-LKA二次创新C3k2_DLKA:可变形大核注意力 C3k2融合 \ 注意力机制 https://blog.csdn.net/shangyanaf/article/details/143494142
10 【YOLO11改进 - 特征融合】C3k2融合ODConv(Omni-Dimensional Dynamic Convolution):全维度动态卷积 C3k2融合 \ 卷积Conv https://blog.csdn.net/shangyanaf/article/details/143532233

多模块融合改进

标题 创新点 链接
1 【YOLO11改进- 多模块融合改进】CPCA + CARAFE : 通道先验卷积注意力与上采样算子的融合改进,助力细节提升! 多模块融合改进 https://blog.csdn.net/shangyanaf/article/details/143428926
2 【YOLO11改进- 多模块融合改进】GhostConv + ContextAggregation 幽灵卷积与上下文聚合模块融合改进,助力小目标高效涨点 多模块融合改进 https://blog.csdn.net/shangyanaf/article/details/143434474
3 【YOLO11改进- 多模块融合改进】ResBlock + CBAM: 基于ResBlock的通道+空间注意力,增强特证提取 多模块融合改进 https://blog.csdn.net/shangyanaf/article/details/143369644
4 【YOLO11改进- 多模块融合改进】ResBlock + GAM: 基于ResBlock的全局注意力机制ResBlock_ GAM,增强特证提取 多模块融合改进 https://blog.csdn.net/shangyanaf/article/details/143369878
相关文章
|
6月前
|
机器学习/深度学习 编解码 文件存储
YOLOv5改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
YOLOv5改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
1300 1
|
6月前
|
机器学习/深度学习 编解码 文件存储
YOLOv8改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
YOLOv8改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
819 1
|
6月前
|
机器学习/深度学习 编解码 自然语言处理
YOLOv8改进 | 主干篇 | RevColV1可逆列网络(特征解耦助力小目标检测)
YOLOv8改进 | 主干篇 | RevColV1可逆列网络(特征解耦助力小目标检测)
283 0
YOLOv8改进 | 主干篇 | RevColV1可逆列网络(特征解耦助力小目标检测)
|
29天前
|
机器学习/深度学习 数据可视化 测试技术
YOLO11实战:新颖的多尺度卷积注意力(MSCA)加在网络不同位置的涨点情况 | 创新点如何在自己数据集上高效涨点,解决不涨点掉点等问题
本文探讨了创新点在自定义数据集上表现不稳定的问题,分析了不同数据集和网络位置对创新效果的影响。通过在YOLO11的不同位置引入MSCAAttention模块,展示了三种不同的改进方案及其效果。实验结果显示,改进方案在mAP50指标上分别提升了至0.788、0.792和0.775。建议多尝试不同配置,找到最适合特定数据集的解决方案。
211 0
|
9天前
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目DWRSeg是一种高效的实时语义分割网络,通过将多尺度特征提取分为区域残差化和语义残差化两步,提高了特征提取效率。它引入了Dilation-wise Residual (DWR) 和 Simple Inverted Residual (SIR) 模块,优化了不同网络阶段的感受野。在Cityscapes和CamVid数据集上的实验表明,DWRSeg在准确性和推理速度之间取得了最佳平衡,达到了72.7%的mIoU,每秒319.5帧。代码和模型已公开。
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
|
15天前
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构
【YOLO11改进 - C3k2融合】C3k2融合YOLO-MS的MSBlock : 分层特征融合策略,轻量化网络结构
|
9天前
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2融合DWRSeg二次创新C3k2_DWRSeg:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
【YOLO11改进 - C3k2融合】C3k2融合DWRSDWRSeg是一种高效的实时语义分割网络,通过将多尺度特征提取方法分解为区域残差化和语义残差化两步,提高了多尺度信息获取的效率。网络设计了Dilation-wise Residual (DWR) 和 Simple Inverted Residual (SIR) 模块,分别用于高阶段和低阶段,以充分利用不同感受野的特征图。实验结果表明,DWRSeg在Cityscapes和CamVid数据集上表现出色,以每秒319.5帧的速度在NVIDIA GeForce GTX 1080 Ti上达到72.7%的mIoU,超越了现有方法。代码和模型已公开。
|
4月前
|
机器学习/深度学习 移动开发 自然语言处理
【YOLOv8改进- 多模块融合改进】GhostConv + ContextAggregation 幽灵卷积与上下文聚合模块融合改进,助力小目标高效涨点
【YOLOv8改进- 多模块融合改进】GhostConv + ContextAggregation 幽灵卷积与上下文聚合模块融合改进,助力小目标高效涨点
|
4月前
|
测试技术 计算机视觉 网络架构
【YOLOv8改进 - 特征融合】CARAFE:轻量级新型上采样算子,助力细节提升
【YOLOv8改进 - 特征融合】CARAFE:轻量级新型上采样算子,助力细节提升
|
6月前
|
机器学习/深度学习
YOLOv8改进 | 细节创新篇 | iAFF迭代注意力特征融合助力多目标细节涨点
YOLOv8改进 | 细节创新篇 | iAFF迭代注意力特征融合助力多目标细节涨点
552 0
下一篇
无影云桌面