YoloV8最新改进手册——高阶篇

简介: 本专栏是讲解如何改进Yolov8的专栏。改进方法采用了最新的论文提到的方法。改进的方法包括:增加注意力机制、更换卷积、更换block、更换backbone、更换head、更换优化器等;每篇文章提供了一种到N种改进方法。评测用的数据集是我自己标注的数据集,里面包含32种飞机。每种改进方法我都做了测评,并与官方的模型做对比。代码和PDF版本的文章,我在验证无误后会上传到百度网盘中,方便大家下载使用。这个专栏,求质不求量,争取尽心尽力打造精品专栏!!!专栏链接:'''https://blog.csdn.net/m0_47867638/category_12295903

YoloV8最新改进手册——高阶篇

@[toc]

# 摘要

本专栏是讲解如何改进Yolov8的专栏。改进方法采用了最新的论文提到的方法。改进的方法包括:增加注意力机制、更换卷积、更换block、更换backbone、更换head、更换优化器等;每篇文章提供了一种到N种改进方法。

评测用的数据集是我自己标注的数据集,里面包含32种飞机。每种改进方法我都做了测评,并与官方的模型做对比。

代码和PDF版本的文章,我在验证无误后会上传到百度网盘中,方便大家下载使用。

这个专栏,求质不求量,争取尽心尽力打造精品专栏!!!

专栏链接:

'''

https://blog.csdn.net/m0_47867638/category_12295903.html?spm=1001.2014.3001.5482

'''

 

谢谢大家支持!!!

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/c7ce18642cd74124850a4007078cf637.jpeg#pic_center)

# YoloV8改进策略:独家原创,LSKA(大可分离核注意力)改进YoloV8,比Transformer更有效,包括论文翻译和实验结果

[YoloV8改进策略:独家原创,LSKA(大可分离核注意力)改进YoloV8,比Transformer更有效,包括论文翻译和实验结果](https://blog.csdn.net/m0_47867638/article/details/134002969)

# YoloV8改进策略:SwiftFormer,全网首发,独家改进的高效加性注意力用于实时移动视觉应用的模型,重构YoloV8

[YoloV8改进策略:SwiftFormer,全网首发,独家改进的高效加性注意力用于实时移动视觉应用的模型,重构YoloV8](https://blog.csdn.net/m0_47867638/article/details/133837726)

# YoloV8改进策略:全新特征融合模块AFPN,更换YoloV8的Neck

[YoloV8改进策略:全新特征融合模块AFPN,更换YoloV8的Neck](https://blog.csdn.net/m0_47867638/article/details/133799120)

# YoloV8改进策略:EfficientViT,高效的视觉transformer与级联组注意力提升YoloV8的速度和精度,打造高效的YoloV8

[YoloV8改进策略:EfficientViT,高效的视觉transformer与级联组注意力提升YoloV8的速度和精度,打造高效的YoloV8](https://blog.csdn.net/m0_47867638/article/details/133651780)

# YoloV8改进策略:复现HIC-YOLOv5,打造HIC-YOLOv8,用于小物体检测

[YoloV8改进策略:复现HIC-YOLOv5,打造HIC-YOLOv8,用于小物体检测](https://blog.csdn.net/m0_47867638/article/details/133544663)

# YoloV8改进策略:LSKNet加入到YoloV8中,打造更适合小目标的YoloV8

[YoloV8改进策略:LSKNet加入到YoloV8中,打造更适合小目标的YoloV8](https://blog.csdn.net/m0_47867638/article/details/133519608)

# YoloV8改进策略:可变形大核注意力D-LKA,YoloV8的超大杯酱香拿铁

[YoloV8改进策略:可变形大核注意力D-LKA,YoloV8的超大杯酱香拿铁](https://blog.csdn.net/m0_47867638/article/details/133009324)

# YoloV8改进策略:RepViT改进YoloV8,轻量级的Block助力YoloV8实现更好的移动性

[YoloV8改进策略:RepViT改进YoloV8,轻量级的Block助力YoloV8实现更好的移动性](https://blog.csdn.net/m0_47867638/article/details/132922093)

# YoloV8改进策略:Diverse Branch Block改进YoloV8,继续在重参数结构上恐龙抗狼

[YoloV8改进策略:Diverse Branch Block改进YoloV8,继续在重参数结构上恐龙抗狼](https://blog.csdn.net/m0_47867638/article/details/132839388)

# YoloV8改进策略:FastVit与YoloV8完美融合,重参数重构YoloV8网络(全网首发)

[YoloV8改进策略:FastVit与YoloV8完美融合,重参数重构YoloV8网络(全网首发)](https://blog.csdn.net/m0_47867638/article/details/132699661)

# YoloV8改进策略:轻量级Slim Neck打造极致的YoloV8

[YoloV8改进策略:轻量级Slim Neck打造极致的YoloV8](https://blog.csdn.net/m0_47867638/article/details/132645114)

# YoloV8改进策略:NWD小目标检测新范式,助力YoloV5、V8在小目标上暴力涨点

[YoloV8改进策略:NWD小目标检测新范式,助力YoloV5、V8在小目标上暴力涨点](https://blog.csdn.net/m0_47867638/article/details/132633923)

# YoloV8改进策略:Intel面向参数高效动态卷积KernelWarehouse,YoloV8的上分显眼包

[YoloV8改进策略:Intel面向参数高效动态卷积KernelWarehouse,YoloV8的上分显眼包](https://blog.csdn.net/m0_47867638/article/details/132589953)

# YoloV8改进策略:CoordConv给卷积加上坐标,从而使其具备了空间感知能力

[YoloV8改进策略:CoordConv给卷积加上坐标,从而使其具备了空间感知能力](https://blog.csdn.net/m0_47867638/article/details/132570943)

# YoloV8改进策略:SPD-Conv加入到YoloV8中,让小目标无处遁形

[YoloV8改进策略:SPD-Conv加入到YoloV8中,让小目标无处遁形](https://blog.csdn.net/m0_47867638/article/details/132528482)

# YoloV8改进策略:MPDIoU超越现有的IoU,与YoloV8一起恐龙扛狼扛狼扛

[YoloV8改进策略:MPDIoU超越现有的IoU,与YoloV8一起恐龙扛狼扛狼扛](https://blog.csdn.net/m0_47867638/article/details/132503791)

# YoloV8改进策略:Intel的多维动态卷积,涨点更轻松

[YoloV8改进策略:Intel的多维动态卷积,涨点更轻松](https://blog.csdn.net/m0_47867638/article/details/132356134)

# YoloV8改进策略:即插即用的SCConv,YoloV8的轻量化涨点神器

[YoloV8改进策略:即插即用的SCConv,YoloV8的轻量化涨点神器](https://blog.csdn.net/m0_47867638/article/details/132248990)

# YoloV8改进策略:重新思考高效的基于注意力的移动块模型EMO重新定义了轻量化的YoloV8

[YoloV8改进策略:重新思考高效的基于注意力的移动块模型EMO重新定义了轻量化的YoloV8](https://blog.csdn.net/m0_47867638/article/details/132127360)

# YoloV8改进策略:基于图的稀疏注意移动视觉的MobileViG,YoloV8用上了先进的图卷积网络

[YoloV8改进策略:基于图的稀疏注意移动视觉的MobileViG,YoloV8用上了先进的图卷积网络](https://blog.csdn.net/m0_47867638/article/details/131873419)

# YoloV8改进策略:基于分层注意力的FasterViT,让YoloV8实现性能的飞跃

[YoloV8改进策略:基于分层注意力的FasterViT,让YoloV8实现性能的飞跃](https://blog.csdn.net/m0_47867638/article/details/131546993 )

这篇文章向大家展示如何使用FasterViT改进YoloV8,我尝试了几种方法,选出了三种效果比较好的方法推荐给大家。

FasterViT结合了cnn的快速局部表示学习和ViT的全局建模特性的优点。新提出的分层注意力(HAT)方法将具有二次复杂度的全局自注意力分解为具有减少计算成本的多级注意力。我们受益于基于窗口的高效自我关注。每个窗口都可以访问参与局部和全局表示学习的专用载体Token。在高层次上,全局的自我关注使高效的跨窗口通信能够以较低的成本实现。FasterViT在精度与图像吞吐量方面达到了SOTA Pareto-front。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/0a4b1fb603f54aa7aa9dcd5421174049.png)

# YoloV8改进策略:InceptionNext主干替换YoloV8和YoloV5的主干

[YoloV8改进策略:InceptionNext主干替换YoloV8和YoloV5的主干](https://blog.csdn.net/m0_47867638/article/details/131542200)

这篇文章主要讲解如何使用InceptionNext主干网络替换YoloV8和YoloV5的主干。更改了InceptionNext网络结构,和Yolov5、YoloV8的架构。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/714cb42d3d674f2690b5d0ab594bab60.png)

# YoloV8改进策略:轻量级的CloFormer助力Yolov8在速度和精度上实现双双提升

[YoloV8改进策略:轻量级的CloFormer助力Yolov8在速度和精度上实现双双提升](https://blog.csdn.net/m0_47867638/article/details/131482825)

CloFormer是清华大学在今年发表的轻量级主干网络,引入了AttnConv,一种attention风格的卷积算子。所提出的AttnConv使用共享权重来聚合局部信息,并配置精心设计的上下文感知权重来增强局部特征。AttnConv和普通attention的结合使用池化来减少CloFormer中的FLOPs,使模型能够感知高频和低频信息。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/ebbcb8dd872c46a39898f17d120f453a.png)

# YoloV8改进策略:InceptionNeXt和YoloV8完美结合,让YoloV8大放异彩

[YoloV8改进策略:InceptionNeXt和YoloV8完美结合,让YoloV8大放异彩](https://blog.csdn.net/m0_47867638/article/details/131389427)

InceptionNeXt是今年颜水成团队发布的一篇论文,将ConvNext和Inception的思想融合,即IncepitonNeXt。InceptionNeXt-T实现了比convnext - t高1.6倍的训练吞吐量,并在ImageNet- 1K上实现了0.2%的top-1精度提高。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/e4173daa513c454fbabe77410cc42db1.png)

# YoloV8改进策略:新出炉的EMA注意力机制助力YoloV8更加强大

[YoloV8改进策略:新出炉的EMA注意力机制助力YoloV8更加强大](https://blog.csdn.net/m0_47867638/article/details/131356975)

EMA注意力机制是今年新的高效的多尺度注意力模块。以保留每个通道上的信息和降低计算开销为目标,将部分通道重塑为批量维度,并将通道维度分组为多个子特征,使空间语义特征在每个特征组中均匀分布。具体来说,除了对全局信息进行编码以重新校准每个并行分支中的通道权重外,还通过跨维度交互进一步聚合两个并行分支的输出特征,以捕获像素级成对关系。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/868561053e994908b24d0518540babe9.png#pic_center)

# YoloV8改进策略:VanillaNet极简主义网络,大大降低YoloV8的参数

[YoloV8改进策略:VanillaNet极简主义网络,大大降低YoloV8的参数](https://blog.csdn.net/m0_47867638/article/details/131216544)

VanillaNet,一个包含优雅设计的神经网络架构。通过避免高深度,shotcut和复杂的操作,如自主意力,VanillaNet令人耳目一新的简洁,但非常强大。每一层都被精心制作得紧凑而直接,非线性激活函数在训练后被修剪以恢复原始结构。VanillaNet克服了固有复杂性的挑战,使其成为资源受限环境的理想选择。其易于理解和高度简化的架构为高效部署提供了新的可能性。大量的实验表明,VanillaNet提供的性能与著名的深度神经网络和视觉转换器相当,展示了极简主义在深度学习中的力量。VanillaNet的这一富有远见的旅程具有重新定义景观和挑战基础模型现状的巨大潜力,为优雅有效的模型设计开辟了一条新的道路。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/e9d265253e4e48f68ff81e19bde452f8.png)

# YoloV8改进策略:RFAConv模块即插即用,实现YoloV8丝滑上分

[YoloV8改进策略:RFAConv模块即插即用,实现YoloV8丝滑上分](https://blog.csdn.net/m0_47867638/article/details/130980388)

RFAConv是一种新的注意力机制,称为感受野注意力(RFA)。卷积块注意力模块(CBAM)和协调注意力模块(CA)只关注空间特征,不能完全解决卷积核参数共享的问题,但在RFA中,感受野空间特征不仅集中,而且为大尺寸卷积核提供了良好的注意力权重。RFA设计的感受野注意力卷积运算(RFAConv)可以被认为是取代标准卷积的一种新方法,它带来的计算成本和许多参数几乎可以忽略不计。由于作者没有开源我自己复现了一版,并尝试将其加入到YoloV8网络中。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/621032cbd20c473983ae2e98770add0c.png#pic_center)

# YoloV8改进策略:让SeaFormer走进Yolov8的视野,轻量高效的注意力模块展现出无与伦比的魅力

[YoloV8改进策略:让SeaFormer走进Yolov8的视野,轻量高效的注意力模块展现出无与伦比的魅力](https://blog.csdn.net/m0_47867638/article/details/130859027)

SeaFormer使用压缩轴和细节增强的方法设计了一个通用的注意力块。它可以进一步用于创建一系列具有卓越成本效益的骨干体系结构。再加上一个轻分割头,我们在基于arm的移动设备上在ADE20K和cityscape数据集上实现了分割精度和延迟之间的最佳权衡。关键的是,我们以更好的性能和更低的延迟击败了适合移动设备的竞争对手和基于transformer的对手,而且没有花哨的东西。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/a89dc20b65054d408a119b1a516e8341.png)

# YoloV8改进策略:将DCN v1与v2运用到YoloV8中,化身成上分小黑子

[YoloV8改进策略:将DCN v1与v2运用到YoloV8中,化身成上分小黑子](https://blog.csdn.net/m0_47867638/article/details/130395857)

尝试用DCNv1与DCNv2代替普通的卷积!

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/c91172e2ecb84834897d6e1da303fa01.png)

# YoloV8改进策略:基于双层路由注意力的视觉Transformer提升YoloV8的检测能力

[YoloV8改进策略:基于双层路由注意力的视觉Transformer提升YoloV8的检测能力](https://blog.csdn.net/m0_47867638/article/details/130394861)

双层路由注意力实现具有内容感知的更灵活的计算分配。利用稀疏性来节省计算和内存,同时只涉及适用于GPU的密集矩阵乘法。用所提出的双层路由注意力建立了一个新的通用视觉transformer,称为BiFormer。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/6292fd054cdf45ddb9504f39998dff62.png)

# YoloV8改进策略:来自谷歌最新的优化器——Lion,在速度和精度上双双提升。Adam表示年轻人不讲武德

[YoloV8改进策略:来自谷歌最新的优化器——Lion,在速度和精度上双双提升。Adam表示年轻人不讲武德](https://blog.csdn.net/m0_47867638/article/details/130276557)

Lion将ViT在ImageNet上的准确率提高了2%,并在JFT上节省了高达5倍的预训练计算。在视觉-语言对比学习方面,在ImageNet上实现了88.3%的零样本和91.1%的微调精度,分别超过了之前的最佳结果2%和0.1%。在扩散模型上,Lion通过获得更好的FID分数并将训练计算量减少了2.3倍,超越了Adam。在自回归、掩码语言建模和微调方面,Lion表现出与Adam类似或更好的性能。对Lion的分析表明,其性能增益随着训练批大小的增加而增长。由于符号函数产生的更新范数更大,它还需要比Adam更小的学习率。

# YoloV8改进策略:Conv2Former与YoloV8深度融合,极简网络,极高性能

[YoloV8改进策略:Conv2Former与YoloV8深度融合,极简网络,极高性能](https://blog.csdn.net/m0_47867638/article/details/130276548)

Conv2Former是在ConvNeXt基础上,做了进一步的优化,性能得到了提升。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/074435e5e7e449ae89a41b89354a8016.png)

# YoloV8改进策略:将ConvNextV2与YoloV8激情碰撞,能迸发出什么样的火花呢?

[YoloV8改进策略:将ConvNextV2与YoloV8激情碰撞,能迸发出什么样的火花呢](https://blog.csdn.net/m0_47867638/article/details/130276518)

ConvNextV2将一个全卷积掩码自编码器框架和一个新的全局响应归一化(GRN)层,可以添加到ConvNeXt架构中,以增强通道间的特征竞争,它显著提高了纯ConvNets在各种识别基准上的性能,包括ImageNet分类、COCO检测和ADE20K分割。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/21c7e1d5df9c4cfbabe56d866413b5e0.png#pic_center)

# YoloV8改进策略:将CIoU替换成Wise-IoU,幸福涨点,值得拥有,还支持EIoU、GIoU、DIoU、SIoU无缝替换。

[YoloV8改进策略:将CIoU替换成Wise-IoU,幸福涨点,值得拥有,还支持EIoU、GIoU、DIoU、SIoU无缝替换。](https://blog.csdn.net/m0_47867638/article/details/130276512)

这篇文章讲述如何在yolov8中,使用Wise-IoU涨点。首先,翻译了论文,让大家了解什么是Wise IoU,以及Wise IoU的三个版本。接下来讲解如何在yolov8中添加Wise IoU。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/987a5ae1143443849334e2bb7d8cf29e.png)

# YoloV8改进策略:增加分支,减少漏检

[YoloV8改进策略:增加分支,减少漏检](https://blog.csdn.net/m0_47867638/article/details/130276496)

通过增加一个分支,来提高小目标的检测

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/b9f55707d9cd4fbc89d07a4aa8ff5f15.png)

# YoloV8改进策略:将FasterNet与YoloV8深度融合,打造更快更强的检测网络

[YoloV8改进策略:将FasterNet与YoloV8深度融合,打造更快更强的检测网络](https://blog.csdn.net/m0_47867638/article/details/130276393)

fastternet,这是一种新的神经网络家族,它在各种设备上获得了比其他网络更高的运行速度,而不影响各种视觉任务的准确性。

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/f5855d9250a7455e9523c4ba03e34ae8.png)

# Yolov8网络详解与实战(附数据集)

[Yolov8网络详解与实战(附数据集)](https://blog.csdn.net/m0_47867638/article/details/130276368)

![在这里插入图片描述](https://ucc.alicdn.com/images/user-upload-01/90f0577d1b454b9e8184c8dd2f5757e0.png)

目录
相关文章
|
6月前
|
机器学习/深度学习 算法 Python
【Python机器学习】神经网络中常用激活函数、损失函数、优化方法(图文解释 附源码)
【Python机器学习】神经网络中常用激活函数、损失函数、优化方法(图文解释 附源码)
232 0
|
机器学习/深度学习 并行计算 计算机视觉
YOLOv5入门实践(5)——从零开始,手把手教你训练自己的目标检测模型(包含pyqt5界面)
YOLOv5入门实践(5)——从零开始,手把手教你训练自己的目标检测模型(包含pyqt5界面)
6866 1
YOLOv5入门实践(5)——从零开始,手把手教你训练自己的目标检测模型(包含pyqt5界面)
|
机器学习/深度学习 存储 数据可视化
【PyTorch基础教程23】可视化网络和训练过程
为了更好确定复杂网络模型中,每一层的输入结构,输出结构以及参数等信息,在Keras中可以调用一个叫做model.summary()的API能够显示我们的模型参数,输入大小,输出大小,模型的整体参数等。
1646 0
【PyTorch基础教程23】可视化网络和训练过程
|
数据可视化 PyTorch 算法框架/工具
量化自定义PyTorch模型入门教程
在以前Pytorch只有一种量化的方法,叫做“eager mode qunatization”,在量化我们自定定义模型时经常会产生奇怪的错误,并且很难解决。但是最近,PyTorch发布了一种称为“fx-graph-mode-qunatization”的方方法。在本文中我们将研究这个fx-graph-mode-qunatization”看看它能不能让我们的量化操作更容易,更稳定。
241 0
|
机器学习/深度学习 资源调度 自然语言处理
长短时记忆网络(LSTM)完整实战:从理论到PyTorch实战演示
长短时记忆网络(LSTM)完整实战:从理论到PyTorch实战演示
6533 0
|
机器学习/深度学习 自然语言处理 算法
【机器学习实战】10分钟学会Python怎么用NN神经网络进行分类(十一)
【机器学习实战】10分钟学会Python怎么用NN神经网络进行分类(十一)
132 0
|
机器学习/深度学习 人工智能 PyTorch
【Pytorch神经网络理论篇】 01 Pytorch快速上手(一)概述+张量
Pytorch是基于Torch之上的python包,在底层主要通过张量的形式进行计算,Pytorch中的张量表示为同一数据类型的多位橘子。
161 0
|
机器学习/深度学习 PyTorch 算法框架/工具
从零开始学Pytorch(十七)之目标检测基础(二)
从零开始学Pytorch(十七)之目标检测基础
从零开始学Pytorch(十七)之目标检测基础(二)
|
算法 PyTorch 算法框架/工具
从零开始学Pytorch(十七)之目标检测基础(一)
从零开始学Pytorch(十七)之目标检测基础
从零开始学Pytorch(十七)之目标检测基础(一)
|
机器学习/深度学习 数据采集 PyTorch
从零开始学Pytorch(十六)之模型微调
从零开始学Pytorch(十六)之模型微调
从零开始学Pytorch(十六)之模型微调
下一篇
无影云桌面