手把手教物体检测——EfficientDet

简介: 手把手教物体检测——EfficientDet

目录


摘要


训练数据


1、下载Pytoch版的EfficientDet。


2、制作数据集。


3、下载EfficientNets预训练模型。


4、安装模型需要的包


5、放置数据集


6、修改train.py中的参数


测试


注意


摘要

谷歌大脑团队 Quoc V. Le 等人系统研究了多种目标检测神经网络架构设计,提出了能够提升模型效率的几项关键优化。首先,他们提出加权双向特征金字塔网络(weighted bi-directional feature pyramid network,BiFPN),从而轻松、快速地实现多尺度特征融合;其次,他们提出一种复合缩放(compound scaling)方法,同时对所有主干网络、特征网络和边界框/类别预测网络的分辨率、深度和宽度执行统一缩放。基于这些优化,研究者开发了新型目标检测器 EfficientDet。模型结构如下:

tt.png

EfficientDet的特点:

  1. 使用EfficientNet网格作为主干网络。
  2. 提出BiFPN,使模型实现高效的双向跨尺度连接和加权特征融合。下图是集中常见的FPN结构图:


tt.png

a)FPN 使用自上而下的路径来融合多尺度特征 level 3-7(P3 - P7);b)PANet 在 FPN 的基础上额外添加了自下而上的路径;c)NAS-FPN 使用神经架构搜索找出不规则特征网络拓扑;(d)-(f) 展示了该论文研究的三种替代方法。d 在所有输入特征和输出特征之间添加成本高昂的连接;e 移除只有一个输入边的节点,从而简化 PANet;f 是兼顾准确和效率的 BiFPN。


模型缩放。提出一种目标检测器复合缩放方法,即统一扩大所有主干网络、特征网络、边界框/类别预测网络的分辨率/深度/宽度。

基于以上的特点,EfficientDet-D7 在 COCO 数据集上实现了当前最优的 51.0 mAP,准确率超越之前最优检测器(+0.3% mAP),其规模仅为之前最优检测器的 1/4,而后者的 FLOPS 更是 EfficientDet-D7 的 9.3 倍。


论文地址:https://arxiv.org/abs/1911.09070

训练数据

1、下载Pytoch版的EfficientDet。

https://github.com/zylo117/Yet-Another-EfficientDet-Pytorch

2、制作数据集。

将标注好的:Labelme数据集转为COCO数据集。

参照https://blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/106255087

本例用的数据集:https://download.csdn.net/download/hhhhhhhhhhwwwwwwwwww/14003627

3、下载EfficientNets预训练模型。

b0: https://github.com/lukemelas/EfficientNet-PyTorch/releases/download/1.0/efficientnet-b0-355c32eb.pth

b1: https://github.com/lukemelas/EfficientNet-PyTorch/releases/download/1.0/efficientnet-b1-f1951068.pth

b2: https://github.com/lukemelas/EfficientNet-PyTorch/releases/download/1.0/efficientnet-b2-8bb594d6.pth

b3: https://github.com/lukemelas/EfficientNet-PyTorch/releases/download/1.0/efficientnet-b3-5fb5a3c3.pth

b4: https://github.com/lukemelas/EfficientNet-PyTorch/releases/download/1.0/efficientnet-b4-6ed6700e.pth

b5: https://github.com/lukemelas/EfficientNet-PyTorch/releases/download/1.0/efficientnet-b5-b6417697.pth

b6: https://github.com/lukemelas/EfficientNet-PyTorch/releases/download/1.0/efficientnet-b6-c76e70fd.pth

b7: https://github.com/lukemelas/EfficientNet-PyTorch/releases/download/1.0/efficientnet-b7-dcc49843.pth

将预训练模型放到指定的目录下面:

————————————————

版权声明:本文为CSDN博主「AI浩」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/106722315

tt.png

如果可以连接外网可以忽略这个步骤,运行时会自动下载预训练模型。


4、安装模型需要的包

pycocotools

pytorch1.2版本以上(模型用了pytorch的nms,在1.2以上的版本中才包含)

python-opencv(pip install opencv-python)

tensorboardX(pip install tensorboardx)

webcolors(pip install webcolors)

结合本地环境,如果还有缺少的自行下载,唯一要注意的就是pytorch的版本。


修改coco.yml参数。

project_name: coco  # also the folder name of the dataset that under data_path folder

train_set: train2017#注意和COCO转化时,选择的年份一致。

val_set: val2017

num_gpus: 1


# mean and std in RGB order, actually this part should remain unchanged as long as your dataset is similar to coco.

mean: [0.485, 0.456, 0.406]

std: [0.229, 0.224, 0.225]


# this is coco anchors, change it if necessary

anchors_scales: '[2 ** 0, 2 ** (1.0 / 3.0), 2 ** (2.0 / 3.0)]'

anchors_ratios: '[(1.0, 1.0), (1.4, 0.7), (0.7, 1.4)]'


# must match your dataset's category_id.

# category_id is one_indexed,

# for example, index of 'car' here is 2, while category_id of is 3

obj_list: ['aircraft', 'oiltank'] #类别顺序和转化COCO时候的类别顺序一致。COCO中设置'aircraft':1, 'oiltank':2


5、放置数据集

将数据集放到datasets目录下,如下图:

tt.png

6、修改train.py中的参数

主要需要修改的参数有compound_coef、batch_size、num_epochs、save_interval、lr

、data_path、load_weights

compound_coef:0-7,选择EfficientDet的模型,对应d0-d7,同时对应EfficientNet网络的b0-b7。

batch_size:根据显卡显存的大小和类别的多少定义。

epochs:默认为500,一般情况300即可。

save_interval:迭代多少次保存一个模型。

lr:学习率,默认为10-4,这个模型不要用太大的学习率,经测试,学习率太大不收敛。

data_path:数据集的路径,本例放在datasets路径下面,就设置为datasets。

load_weights:加载模型的路径,如果没有一次训练完,再次训练就要用到此参数。

参数配置如下:

def get_args():
    parser = argparse.ArgumentParser('Yet Another EfficientDet Pytorch: SOTA object detection network - Zylo117')
    parser.add_argument('-p', '--project', type=str, default='coco', help='project file that contains parameters')
    parser.add_argument('-c', '--compound_coef', type=int, default=4, help='coefficients of efficientdet')
    parser.add_argument('-n', '--num_workers', type=int, default=2, help='num_workers of dataloader')
    parser.add_argument('--batch_size', type=int, default=2, help='The number of images per batch among all devices')
    parser.add_argument('--head_only', type=boolean_string, default=False,
                        help='whether finetunes only the regressor and the classifier, '
                             'useful in early stage convergence or small/easy dataset')
    parser.add_argument('--lr', type=float, default=1e-4)
    parser.add_argument('--optim', type=str, default='adamw', help='select optimizer for training, '
                                                                   'suggest using \'admaw\' until the'
                                                                   ' very final stage then switch to \'sgd\'')
    parser.add_argument('--num_epochs', type=int, default=300)
    parser.add_argument('--val_interval', type=int, default=1, help='Number of epoches between valing phases')
    parser.add_argument('--save_interval', type=int, default=11970, help='Number of steps between saving')
    parser.add_argument('--es_min_delta', type=float, default=0.0,
                        help='Early stopping\'s parameter: minimum change loss to qualify as an improvement')
    parser.add_argument('--es_patience', type=int, default=0,
                        help='Early stopping\'s parameter: number of epochs with no improvement after which training will be stopped. Set to 0 to disable this technique.')
    parser.add_argument('--data_path', type=str, default='datasets', help='the root folder of dataset')
    parser.add_argument('--log_path', type=str, default='logs/')
    parser.add_argument('-w', '--load_weights', type=str, default=None,
                        help='whether to load weights from a checkpoint, set None to initialize, set \'last\' to load last checkpoint')
    parser.add_argument('--saved_path', type=str, default='logs/')
    parser.add_argument('--debug', type=boolean_string, default=False, help='whether visualize the predicted boxes of trainging, '
                                                                  'the output images will be in test/')
运行效果如下:

tt.png

测试

修改efficientdet_test.py参数:

compound_coef和训练时设置的参数相对应,比如训练时设置的是0,测试的时候也设置为0

img_path:测试图片的路径。

threshod = 0.2,iou_threshod = 0.35。这两个参数在物体检测中常见,一个过滤分数,一个设置重叠度。

obj_ist =['aircraft', 'oitank']:类别,和训练时的类别顺序一致。

修改完成后运行efficientdet_test.py文件

会在test文件夹下面保存结果的图片,结果如下:

tt.png

运行coco_eval.py,会生成,测试模型得分。在这里注意numpy的版本。如果太高会报一个不兼容的错误,需要降到17版本。我用的版本是1.17.4,结果如下:

注意

1、这个模型使用时,compound_coef在训练集和测试集相对应,如果不仔细容易出现错乱。


2、在使用COCO数据集时,注意类别的顺序,如果出现错乱会导致得分很低甚至为零。


目录
相关文章
|
并行计算 Ubuntu 机器人
计算机视觉教程7-3:Openpose配置与实践
计算机视觉教程7-3:Openpose配置与实践
2310 0
计算机视觉教程7-3:Openpose配置与实践
|
6月前
|
机器学习/深度学习 算法 PyTorch
计算机视觉快速入门:探索图像处理
本文介绍了计算机视觉的基本概念和学习路径,包括图像处理、特征提取、目标检测、图像分类与分割以及深度学习在该领域的应用。初学者应从图像处理基础开始,学习数字图像概念、处理技术及开源库如OpenCV。接着,探索特征提取与描述方法,如SIFT和HOG,以及目标检测的算法,如Haar级联和YOLO。进一步,掌握图像分类和分割技术,涉及深度学习模型如CNN。通过实践项目深化理解,并关注最新研究,持续学习和探索,以在计算机视觉领域不断进步。
|
机器学习/深度学习 数据采集 TensorFlow
手把手搭建一个【卷积神经网络】
本文介绍卷积神经网络的入门案例,通过搭建和训练一个模型,来对10种常见的物体进行识别分类;
118 0
|
机器学习/深度学习 人工智能 计算机视觉
【YOLOv8】实战一:手把手教你使用YOLOv8实现实时目标检测
【YOLOv8】实战一:手把手教你使用YOLOv8实现实时目标检测
18024 0
【YOLOv8】实战一:手把手教你使用YOLOv8实现实时目标检测
|
PyTorch 算法框架/工具 计算机视觉
pytorch安装(模式识别与图像处理课程实验)
pytorch安装(模式识别与图像处理课程实验)
pytorch安装(模式识别与图像处理课程实验)
|
机器学习/深度学习 Linux TensorFlow
基于TensorFlow训练的人脸识别神经网络 毕业设计完整教程
基于TensorFlow训练的人脸识别神经网络 毕业设计完整教程
275 0
|
机器学习/深度学习 存储 编解码
计算机视觉教程2-5:图像金字塔送她一朵玫瑰(附代码)
计算机视觉教程2-5:图像金字塔送她一朵玫瑰(附代码)
224 0
计算机视觉教程2-5:图像金字塔送她一朵玫瑰(附代码)
|
机器学习/深度学习 算法 TensorFlow
深度学习入门笔记系列 ( 八 ) ——基于 tensorflow 的手写数字的识别(进阶)
基于 tensorflow 的手写数字的识别(进阶) 本系列将分为 8 篇 。本次为第 8 篇 ,基于 tensorflow ,利用卷积神经网络 CNN 进行手写数字识别 。
243 0
深度学习入门笔记系列 ( 八 ) ——基于 tensorflow 的手写数字的识别(进阶)
|
XML 并行计算 Linux
手把手教物体检测——RFBNet
手把手教物体检测——RFBNet
117 0
手把手教物体检测——RFBNet
|
机器学习/深度学习 数据采集 算法
☀️机器学习实战☀️基于 YOLO网络 的人脸识别 |(文末送机器学习书籍~)
目录 一、 项目进展 1.1 第一阶段 1.2 第二阶段 1.3 第三阶段 1.4 第四阶段 二、 项目难点 三、解决思路 3.1 问题一 3.1.1 算法方面 3.2 问题二 3.2.1 数据集 3.1.2 YOLOv3 To YOLOv5 四、网络介绍 4.1 YOLOv3 4.1.1 主干网络 Darknet-53 4.1.2 训练结果 4.2 YOLOv5 4.2.1 输入端 4.2.2 Backbone主干网络 4.2.3 Neck 4.2.4 结果演示 4.3 YOLOv5 + MoblieNetV3 4.3.1 深度可分离卷积 五、代码&参考文献 六、福利送书 最后
651 0
☀️机器学习实战☀️基于 YOLO网络 的人脸识别 |(文末送机器学习书籍~)
下一篇
无影云桌面