目标检测:YOLO V2思路解读

简介: 目标检测:YOLO V2思路解读

目标检测:YOLO V2思路解读
在这里插入图片描述

YOLO V1存在的问题

  1. 对于小或者多的目标识别效果不好(由于grid cell 少且每个grid cell预测两个框)
  2. 与同时期的检测网络相比recall 比较低
  3. 速度与精度都不如ssd

主要改进

Batch Normalization

如果还不了解BN层:Batch Normliaztion 详细指南
BN层起初作者认为可以缓解 内部斜变量便宜,后来通过实验说其实是通过对每个batch的每个神经元➕噪声来缓解过拟合,增加泛化性能,这也是它不与DropOut在一起用的原因。作者在每一个卷基层后都加上了BN层,与原始的YOLO相比,加入BN层为模型精度贡献了2%左右的mAP。

High Resolution Classifier

作者原始在YOLOV1中使用了在ImageNet数据上Pre-Train的模型BackBone,由于检测任务对feature map的 细粒度要求苛刻,作者把224 224 的input size 换成了 448 448,但是ImageNet数据集的图片的尺寸是224 * 224 ,这意味着模型需要去适应新的尺寸,所以我们把把imagenet448尺寸的图像在backbone中训练了10个epoch以达到fine-tune的效果,这个操作为我模型精度贡献了4%左右的mAP。

切换尺寸不需要改变模型结构的原因是结尾的全连接层用全局平均池化层代替。

Convolutional With Anchor Boxes

RCNN系列论文解读
在YOLO V1中,每个grid cell 采取直接预测bounding box坐标的方式,而Faster RCNN是采取Anchor的机制来预测(手动采取先验框),为了简化学习目标,作者在YOLO中也加入了Anchor的机制,预测的是偏移量,具体细节下方详细介绍。

其次作者把input size 从448改为416,当出现特别的大目标的时候,通常占据了正常图像的很大一部分,作者希望负责预测的这个大目标的grid cell的位置在图像正中央,而416刚好可以划分出grid cell长宽个数为基数,也就是正中央存在唯一的 grid cell。

最后 image通过卷积网络后得到 13 13 125 (25 * 5 5个anchor ,每个anchor有 4个坐标+ confidence + 20class)的feature map。
通过上述操作,为模型反而减少了0.2的map,但是recall从 81%增加到了 88%,但是这意味着模型有更大的提升空间。

Dimension Cluster

在这里插入图片描述

在采取anchor机制的时候遇到了两个问题,第一个问题是在anchor的大小需要手动选择,网络不能根据数据去调整来得到更好的priors,为了让模型更好与容易的学习检测任务,作者通过k-means方法聚类数据集中真实框,收敛后,每个聚类中心就是我们anchor的尺寸,我们划分多少个聚类中心,每个gird cell就有多少个anchor,最后作者选择5来达到一个速度与精度的权衡。
对于特定问题,作者也采取特定的distance metric:
在这里插入图片描述
最后作者通过实验对比发现:在这里插入图片描述
通过聚类只要生成5个 anchor就能达到Faster RCNN9个anchor的作用。

Direct location Prediction

作者在引入anchor机制后遇到的第二个问题就是在模型训练的初期,预测框的坐标以前的计算公式参考了Faster RCNN的方法,公式如下:
在这里插入图片描述
其中x y 为预测框的中心点,tx ty为模型预测的偏移量, wh为anchor的宽高,xa ya为anchor的中心点,但是这个方法tx ty是不受限制的,在训练初期数值不稳定,于是作者对其做了归一化处理,具体处理方法如下:
在这里插入图片描述
对tx ty做了sigmid归一化,其中b 为预测框的坐标,tx为模型输出的偏移量,而这个偏移量与rcnn的方式不同,这个偏移量不是相对于anchor,而是相对于grid cell左上角坐标的偏移量,也 cx cy 就是grid cell左上角的坐标。
上述操作会让学习变得更稳定,问模型的mAP贡献了1%的精度。

Fine-Grained Features

这种方法主要是把浅层特征与深层特征融合在一起,可以更好的适应大小目标,方法省略。

Multi-Scale Training

多尺度的训练原始的YOLO使用448×448的输入分辨率。通过添加锚框,我们将分辨率改为416×416。然而,由于我们的模型只使用卷积层和池化层,因此可以实时调整大小。我们希望YOLOv2能够鲁棒地运行在不同尺寸的图像上,所以我们将多尺度训练应用到模型中。
我们不需要修改输入图像的大小,而是每隔几个迭代就改变网络。每10个批次,我们的网络就会随机选择一个新的图像尺寸。由于我们的模型缩减了32倍,我们从以下32的倍数中抽取:{320, 352, …, 608}。因此,最小的选项是320 × 320,最大的是608 × 608。我们将调整网络的尺寸,然后继续训练。

Loss Function

在这里插入图片描述

目录
相关文章
|
机器学习/深度学习 算法 数据挖掘
目标检测算法——YOLOv3
目标检测算法——YOLOv3
197 0
目标检测算法——YOLOv3
|
算法 Go 计算机视觉
【YOLO系列】YOLOv8算法(尖端SOTA模型)
Ultralytics YOLOv8 是由 Ultralytics开发的一个前沿 SOTA 模型。它在以前 YOLO 版本的成功基础上,引入了新的功能和改进,进一步提升了性能和灵活性。YOLOv8 基于快速、准确和易于使用的理念设计,使其成为广泛的物体检测、图像分割和图像分类任务的绝佳选择。
2374 0
【YOLO系列】YOLOv8算法(尖端SOTA模型)
|
机器学习/深度学习 编解码 算法
论文阅读笔记 | 目标检测算法——DCN(可变形卷积网络)
论文阅读笔记 | 目标检测算法——DCN(可变形卷积网络)
540 0
论文阅读笔记 | 目标检测算法——DCN(可变形卷积网络)
|
10月前
|
机器学习/深度学习 监控 算法
了解YOLO算法:快速、准确的目标检测技术
了解YOLO算法:快速、准确的目标检测技术
1481 0
|
10月前
|
编解码 算法 数据挖掘
FCOS—分割思想做目标检测
FCOS—分割思想做目标检测
147 0
|
11月前
|
机器学习/深度学习 人工智能 算法
【Pytorch神经网络理论篇】 33 基于图片内容处理的机器视觉:目标检测+图片分割+非极大值抑制+Mask R-CNN模型
目标检测任务的精度相对较高,主要是以检测框的方式,找出图片中目标物体所在的位置。目标检测任务的模型运算量相对较小,速度相对较快。
180 0
|
11月前
|
固态存储 开发工具 git
mmdetection目标检测训练自己的数据
mmdetection目标检测训练自己的数据
212 0
|
计算机视觉
优化YOLOv5实现小目标检测的几种思路
在YOLOv5中,小目标检测的性能可以通过以下几个方面进行优化
638 0
|
PyTorch 算法框架/工具 计算机视觉
|
计算机视觉
目标检测 :YOLO V1思想总结
目标检测 :YOLO V1思想总结
178 0
目标检测 :YOLO V1思想总结