以下先回顾一下之前的笔记总结:
YOLOv1:目标检测算法——YOLOv1
YOLOv2:目标检测算法——YOLOv2
YOLOv3:目标检测算法——YOLOv3
在前面的目标检测算法笔记中,已经介绍了YOLOv1,v2,v3的版本,其中本来还想记录一下YOLOv3的一些改进版本的,比如:YOLOv3-SPP,SlimYOLOv3-SPP, YOLOv3-SPP-Ultralytics。通过学习了一些b站的相关讲解视频与一些相关的博客,也知道了这些版本的一点区别。
以下对YOLOv3的几个版本进行简要概括:
- YOLOv3-SPP版本:实际上只是增加了SPP 模块,也就是对于backbone作了适当的改变,添加了一个多尺寸的特征融合。(相关的SPP结构可以参考:Spatial Pyramid Pooling)
- SlimYOLOv3-SPP版本:《SlimYOLOv3: Narrower, Faster and Better for Real-Time UAV Applications》是arXiv, 25 Jul 2019的论文,好像是用于无人机的目标检测算法,不太了解。(相关的内容可以参考:SlimYOLOv3)
- YOLOv3-SPP-Ultralytics版本:YOLOv3-SPP-Ultralytics好像也通常称为u版的yolov3,其是一个github上的开源项目。在原本yolov3的基础上,使用了一些tricks,比如Mosaic图像增强,spp模块,clou loss,focal loss等等。(focal loss好像没有被使用)然后提升了比较高的mAP。关于u版的yolov3我好像没怎么查到相关的讲解资料,想了解的话只能自己看代码了。(具体代码可以参考github内容:yolov3-spp-Ultralytics)
下图是一些版本之间的对比:
YOLOv3-SPP与YOLOv3-SPP-Ultralytics的对比
YOLOv3-SPP与SlimYOLOv3-SPP的对比
后来在寻找资料的过程中,发现了YOLOv4中对深度学习中一些常用Tricks进行了大量的测试,然后这些tricks本身就包含了刚刚提及版本所使用的tricks。然后我就觉得没有必要记录yolov3的其他版本了,然后本人就打算直接通过yolov4来学习这些常用的tricks,以下内容开始正题。
1.YOLOv4简介
在深度学习中,有很多技巧可以提高卷积神经网络的检测精度。有些技巧只能针对特定的模型,而有些技巧适用于大多数模型、任务和数据集,比如batch-normalization、residual-connections等。
所有的这些技巧只有通过实际的实验,才能证明其有效性。YOLOv4就对其中的一些常用技巧进行了大量的测试,最终选择了一些有用的tricks。
关于Bag of Freebies与Bag of Specials的概念下面会进行概括
- Bag of Freebies (BoF) for backbone:
CutMix and Mosaic data augmentation, DropBlock regularization,Class label smoothing
- Bag of Specials (BoS) for backbone:
Mish activation, Cross-stage partial connections (CSP), Multiinput weighted residual connections (MiWRC)
- Bag of Freebies (BoF) for detector:
CIoU-loss, CmBN, DropBlock regularization, Mosaic data augmentation, Self-Adversarial Training, Eliminate grid sensitivity, Using multiple anchors for a single ground truth, Cosine annealing scheduler, Optimal hyperparameters, Random training shapes
- Bag of Specials (BoS) for detector:
Mish activation, SPP-block, SAM-block, PAN path-aggregation block, DIoU-NMS
YOLOv4在传统的YOLO基础上,加入了这些实用的技巧,实现了检测速度和精度的最佳权衡。实验表明,在Tesla V100上,对MS COCO数据集的实时检测速度达到65 FPS,精度达到43.5%AP。
YOLOv4的主要贡献:
- 我们开发了一个高效而强大的目标检测模型。它使每个人都可以使用1080ti或2080ti GPU来训练一个超级快速和准确的物体探测器。
- 我们验证了最先进的Bag-ofFreebies和Bag-of-Specials目标检测方法在检测器训练过程中的影响。
- 我们修改了最先进的方法,使它们更有效,适合于单个GPU训练,包括CBN, PAN , SAM等
2.YOLOv4相关工作
1)对象检测模型
yolov4概括性地提出了一个目标检测的模型一般包含哪几种方面:一个是特征提取的backbone,还有一个是用于分类与预测边界框的head。而在backbone与head之间,为了更好的从不同层次的特征图中采集特征,会添加一些形如FPN的额外结构,yolov4中将其称之为neck。(很形象的就是头与躯干之间的内容就是靠颈来连接)
- backbone
一般来说,如果是GPU跑的backbone主要是:VGG,ResNet,ResNeXt,DenseNet;而如果是CPU跑的backbone,需要的是轻量级网络,所以主要是:SqueezeNet,MobileNet,ShuffleNet
其中:对于VGG,ResNet,ResNeXt,MobileNet,ShuffleNet在我之前的博客有介绍过。
- head
对与head部分,一般也分两个部分,一个用于one-step的目标检测,另外的two-step的目标检测。比较有代表性的two-step的网络有:RCNN系列(RCNN,Fast RCNN,Faster RCNN),还有R-FCN,Libra R-CNN。同时two-step网络中还有anchor-free 结构的网络。而one-stage的目标检测网络有:SSD,YOLO,RetinaNet。同样的,one-step网络也有anchor-free 结构的网络。
其中:对于RCNN,Fast RCNN,Faster RCNN,SSD,YOLO在我之前的博客也有介绍过。
- neck
近年来发展起来的目标探测器通常在主干和头部之间插入一些层,这些层通常用于收集不同阶段的特征图。我们可以称它为目标检测的颈部。通常,一个颈是由几个自底向上的路径和几个自顶向下的路径组成。比如有FPN,BiFPN等等。
综上所述,一个普通的目标探测器由以下几个部分组成:
下面内容会介绍yolov4的两个重要概念:Bag of freebies与Bag of specials,它将一些tricks都总归类成了这两类
2)Bag of freebies(免费包)
我们把这些只会改变培训策略或只会增加培训成本的方法称为“bag of freebies”。
详细的“bag of freebies”概念总结,见链接:YOLOv4中的tricks概念总结——Bag of freebies
3)Bag of specials(特价包)
对于那些只增加少量推理成本,却能显著提高目标检测准确率的插件模块和后处理方法,我们称之为“Bag of specials”。
详细的“bag of specials”概念总结,见链接:YOLOv4中的tricks概念总结——Bag of specials
3.YOLOv4网络结构
YOLOv4 = CSPDarknet53(主干) + SPP附加模块(颈) + PANet路径聚合(颈) + YOLOv3(头部)
完整的网络结构图如下:
YOLOv4的网络结构是由 CSPDarknet53、 SPP、 PANet、YOLOv3头部等组成,下面对各部分逐一讲解:
1)CSPDarknet53
CSP结构就是将输出的特征图按channels均分两半,感觉理解了这个其他就没什么好说的了。下面贴两张图,对比去看就知道怎么回事了。
一共有5个CSP结构,所以每次输出的特征图在这里都会进行均分两份。
参考链接:https://www.cnblogs.com/yymn/articles/13672236.html
参考链接:https://blog.csdn.net/nan355655600/article/details/106246422
这张图片比较长,就不放在这里了。
2)SPP
在YOLOv4中的tricks概念总结——Bag of specials中有介绍
SPP在YOLOv4中的结构为:
3)PANet
双塔结构
- FPN发表于CVPR2017,主要是通过融合高低层特征提升目标检测的效果,尤其可以提高小尺寸目标的检测效果。
- Bottom-up Path Augmentation的引入主要是考虑网络浅层特征信息对于实例分割非常重要,因为浅层特征一般是边缘形状等特征。
- Adaptive Feature Pooling用来特征融合。也就是用每个ROI提取不同层的特征来做融合,这对于提升模型效果显然是有利无害。
- Fully-connected Fusion是针对原有的分割支路(FCN)引入一个前背景二分类的全连接支路,通过融合这两条支路的输出得到更加精确的分割结果。
在YOLOv4中,作者使用PANet代替YOLOv3中的FPN作为参数聚合的方法,针对不同的检测器级别从不同的主干层进行参数聚合。并且对原PANet方法进行了修改, 使用张量连接(concat)代替了原来的捷径连接(shortcut connection)。
4)YOLOv3 Head
详细见:目标检测算法——YOLOv3
在YOLOv4中,继承了YOLOv3的Head进行多尺度预测,提高了对不同size目标的检测性能。
4.YOLOv4创新点
1)Mosaic
其他的一些数据增强的方法:见YOLOv4中的tricks概念总结——Bag of freebies
借鉴了CutMix数据增强方式的思想。CutMix数据增强方式利用两张图片进行拼接,但是Mosaic使利用四张图片进行拼接
Mosaic数据增强方法有一个优点:拥有丰富检测目标的背景,并且在BN计算的时候一次性会处理四张图片
2)Self Adversarial Training
SAT是一种自对抗训练数据增强方法,这一种新的对抗性训练方式。在第一阶段,神经网络改变原始图像而不改变网络权值。以这种方式,神经网络对自身进行对抗性攻击,改变原始图像,以制造图像上没有所需对象的欺骗。在第二阶段,用正常的方法训练神经网络去检测目标。
也就是利用了对抗攻击模型来实现数据增强,关于这方面我后面会出一个关于李宏毅课上的一个笔记。
3)CmBN
CmBN的全称是Cross mini-Batch Normalization,定义为跨小批量标准化(CmBN)。CmBN 是 CBN 的改进版本,它用来收集一个batch内多个mini-batch内的统计数据。BN、CBN和CmBN之间的区别具体如下图所示:
CBN Cross-Iteration Bach Normalization 通过泰勒多项式去估计几个连续batch的统计参数:为了适配单GPU,低batch也可以有好结果
4)modified SAM
5)modified PANet
6)DIOU_NMS
参考:https://www.cnblogs.com/yymn/articles/13672236.html
Nms主要用于预测框的筛选,常用的目标检测算法中,一般采用普通的nms的方式,Yolov4则借鉴D/CIOU loss的论文
将其中计算IOU的部分替换成DIOU的方式:再来看下实际的案例
在上图重叠的摩托车检测中,中间的摩托车因为考虑边界框中心点的位置信息,也可以回归出来。因此在重叠目标的检测中,DIOU_nms的效果优于传统的nms。
问题:这里为什么不用CIOU_nms,而用DIOU_nms?
因为前面讲到的CIOU_loss,是在DIOU_loss的基础上,添加的影响因子,包含groundtruth标注框的信息,在训练时用于回归。但在测试过程中,并没有groundtruth的信息,不用考虑影响因子,因此直接用DIOU_nms即可。
5.YOLOv4使用的一些其他方案
到最后,yolov4使用了如下的技巧与结构:
- CutMix
- Mosaic data augmentation
- DropBlock regularization
- Class label smoothing
- Mish activation
- Cross-stage partial connections (CSP)
- Multiinput weighted residual connections (MiWRC)
- CIoU-loss
- CmBN
- Self-Adversarial Training
- Eliminate grid sensitivity
- Using multiple anchors for a single ground truth
- Cosine annealing scheduler
- ptimal hyperparameters
- Random training shapes
- SPP-block
- SAM-block
- PAN path-aggregation block
- DIoU-NMS
以上大多数已有概括,现在简要讲述一些没有提及的tricks
1)Class label smoothing
[0,0,1]–>[0.01,0.01,0.98]
[…] (1-a)+a/n[1,1…](这里a=0.03 n=3)
2)Multiinput weighted residual connections
在BiFPN中,提出了多输入加权剩余连接来进行尺度级重加权,然后添加不同尺度的特征映射。
3)Eliminate grid sensitivity
为了在网格线上的相对值同样可以被检测到
原本:
简单的就是通过sigmoid乘上一个>1.0的因子,这样就不用处于无限大的时候值才等于1.现在乘上一个因子,相当于可以用一个小数也可以使得sigmoid值为1.
4)Using multiple anchors for a single ground truth
为单ground truth做多个锚点
5)Cosine annealing scheduler
一种改变学习率的方式
6)ptimal hyperparameters
通过遗传算法找到最优参数
总结:
- 与其它先进的检测器相比,对于同样的精度,YOLOv4更快(FPS);对于同样的速度,YOLOv4更准(AP)。
- YOLOv4能在普通的GPU上训练和使用,比如GTX 1080Ti和GTX 2080Ti等。
- 论文中总结了各种Tricks(包括各种BoF和BoS),给我们启示,选择合适的Tricks来提高自己的检测器性能。
参考资料:
https://blog.csdn.net/weixin_44751294/article/details/117844557
https://blog.csdn.net/weixin_44751294/article/details/117851548
https://blog.csdn.net/weixin_44751294/article/details/117882906
https://www.bilibili.com/video/BV1yi4y1g7ro?p=4
https://blog.csdn.net/wjinjie/article/details/107509243
https://blog.csdn.net/wjinjie/article/details/107445791
https://blog.csdn.net/yzf0011/article/details/75212513
https://github.com/ultralytics/yolov3
https://www.cnblogs.com/yymn/articles/13672236.html
https://www.bilibili.com/video/BV1aK4y1k73n
https://www.bilibili.com/video/BV1pv411V7kR
https://blog.csdn.net/nan355655600/article/details/106246422
https://www.cnblogs.com/sddai/p/14760055.html
附录:
最后参考了一幅图