MMdetection框架速成系列 第01部分:学习路线图与步骤+优先学习的两个目标检测模型代码+loss计算流程+遇到问题如何求助+Anaconda3下的安装教程(mmdet+mmdet3d)

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,5000CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: Tip:目前 MMDetection 实现的算法中主要包括 one-stage 和 two-stage 算法,而 two-stage 算法可以简单认为是 one-stage + pool + one-stage 步骤。

🚗🚗🚗🚗🚗🚗🚗🚗🚗🚗🚗🚗🚗🚗🚗🚗🚗

MMdetection框架速成系列


MMdetection框架速成系列 第01部分:

https://v9999.blog.csdn.net/article/details/128486362

MMdetection框架速成系列 第02部分:

https://v9999.blog.csdn.net/article/details/128486548

MMdetection框架速成系列 第03部分:

https://v9999.blog.csdn.net/article/details/129294753


🚗🚗🚗🚗🚗🚗🚗正文开始🚗🚗🚗🚗🚗🚗🚗


1 mmdetection 学习建议


c183e2982df942bca421c93a4ffeab06.png


1.1 mmdetection 学习的第一件事


对于任何一个开源框架,找到 GitHub 地址后第一件事情应该是阅读 docs。

MMDetection 2.26.0 文档中文版:https://mmdetection.readthedocs.io/zh_CN/latest/index.html

Tip:目前 MMDetection 实现的算法中主要包括 one-stage 和 two-stage 算法,而 two-stage 算法可以简单认为是 one-stage + pool + one-stage 步骤。


1.2 mmdetection学习路线图


1.2.1 优先看的两个库


简单来说学习 MMDetection 主要是学习两个库:MMCV 和 MMDectection,


MMCV 是面向整个OpenMMLab所有的开源库,均为通用类和工具类,方便下游各个 codebase 复用


1.2.2 阅读代码


在打好基础后,下一步就是深入阅读源码。


由于模型训练过程涉及的内容比较复杂,建议按照如下顺序进行学习:


1.2.3 代码学习步骤


先选择经典算法对前向过程进行深入分析,阅读部分主要包括 DataLoader 构建过程、数据前处理流程、Backbone、Neck、Head 和后处理模块。重点是理解网络输出形式以及后处理的具体步骤,暂时忽略 loss 计算部分。


1.2.4 建议优先学习的两个目标检测模型代码


本阶段目标:充分理解 RetinaNet 和 Faster R-CNN 的前向推理流程


① 优先阅读one-stage模型RetinaNet,多看几遍 RetinaNet 算法后,对 MMDetection 算法的实现方式就会有一个非常清晰的认识。

链接地址:https://zhuanlan.zhihu.com/p/346198300

② 深入阅读 Faster R-CNN 算法


以上两个经典算法可以说是后续所有算法的 baseline,后续大部分算法都或多或少的继承了这个算法,同时实现方式也是非常类似。


1.2.5 loss计算流程的攻坚克难


充分理解前向推理流程后,下一步深入阅读训练过程中 loss 计算流程了,重点关注正负样本定义规则、bbox 编解码规则和 loss 计算函数。


阅读顺序:深入理解 RetinaNet 后,再看 Faster R-CNN。


1.3 遇到问题如何求助


①在阅读过程中,可以再次去查看知乎相关源码解读文章,对照看,多看几遍,应该会加快理解。


②存在问题,去github的issue查找


③如果在阅读过程中有疑问,可以在社区中提问


2 Anaconda3下的安装教程(mmdet+mmdet3d)


MMDetection是MMLab家族的一员,是由香港中文大学和商汤科技共同推出的,以一个统一的架构支撑了15个大方向的研究领域。MMDetection依赖Pytorch和MMCV,因此安装之前需要先安装这两个库。


8de1355c1c7641fd9bc6597bef2aa48d.png


1.1 Anaconda虚拟环境搭建


conda create -n mmlab python=3.6
# 然后切换到该环境下
activate mmlab


1.2 Pytorch安装


# 注意根据自己电脑的CUDA版本选择。在命令行运行nvcc -V查看当前cuda版本:
nvcc -V
# 当前(2021.10.23)MMCV最新仅支持到pytorch-1.9,安装最新的pytorch1.10会导致MMDetection无法使用,因此安装的时候需要指定pytorch版本为1.9。
conda install pytorch==1.9.1 torchvision torchaudio cudatoolkit=10.2 -c pytorch
# 验证pytorch安装成功:
python


8184c1b403094928bf937e7d54b0b9c3.png


1.3 MMCV安装


MMCV有两mmcv-full和mmcv两个版本,两者差别在于是否包含CUDA操作,如果不需要使用CUDA可以安装mmcv,不过官方还是推荐安装完整版的mmcv-full。


pip install mmcv-full
# 如果处于服务器这类无法联网的环境,可以参照官方说明使用源码安装
# https://mmcv.readthedocs.io/en/latest/get_started/build.html


1.4 MMDetection安装


# ①:首先从github上下载mmdetection的源码,然后根据requirements.txt安装所需的依赖库,最后执行setup.py安装mmdetection
git clone https://github.com/open-mmlab/mmdetection.git
cd mmdetection
pip install -r requirements.txt
python setup.py develop
# 使用官方Demo验证安装是否成功,位于./demo文件夹下。
# 先新建一个demo_test工程,下载预训练模型(下载链接)放至test_demo\checkpoints文件下,新建main.py并运行:


main.py


import os
from mmdet.apis import init_detector, inference_detector
def demo_mmdet():
    base_dir = r'D:\Program Files\Third_Part_Lib\mmdetection'       # mmdetection的安装目录
    config_file = os.path.join(base_dir, r'configs\faster_rcnn\faster_rcnn_r50_fpn_1x_coco.py')
    # download the checkpoint from model zoo and put it in `checkpoints/`
    # url: https://download.openmmlab.com/mmdetection/v2.0/faster_rcnn/faster_rcnn_r50_fpn_1x_coco/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth
    checkpoint_file = r'checkpoints\faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth'
    # 根据配置文件和 checkpoint 文件构建模型
    model = init_detector(config_file, checkpoint_file, device='cuda:0')
    # 测试单张图片并展示结果
    img = os.path.join(base_dir, r'demo\demo.jpg') # 或者 img = mmcv.imread(img),这样图片仅会被读一次
    result = inference_detector(model, img)
    # 在一个新的窗口中将结果可视化
    model.show_result(img, result, out_file=None, show=True)
if __name__ == '__main__':
    demo_mmdet()


运行成功效果如下:


2e731db3ced74579aac166c862a4f99f.png


1.5 MMDetection3D安装


MMDetection3D依赖MMSegmentation,先安装MMSegmentation:


git clone https://github.com/open-mmlab/mmsegmentation.git
cd mmsegmentation
pip install -r requirements.txt
python setup.py develop


然后再安装MMDetection3D,这一步编译时间可能会久一点


git clone https://github.com/open-mmlab/mmdetection3d.git
cd mmdetection3d
pip install -r requirements.txt
python setup.py develop


最后再利用官方提供的Demo,先下载预训练模型(下载链接)放至test_demo\checkpoints文件下,然后运行下面代码:


import os
from mmdet3d.apis import inference_detector, init_model, show_result_meshlab
def demo_mmdet3d():
    base_dir = r'D:\Program Files\Third_Part_Lib\mmdetection3d'  # mmdetection3d的安装目录
    config_file = os.path.join(base_dir, r'configs\second/hv_second_secfpn_6x8_80e_kitti-3d-car.py')
    # download the checkpoint from model zoo and put it in `checkpoints/`
    # url: https://download.openmmlab.com/mmdetection/v2.0/faster_rcnn/faster_rcnn_r50_fpn_1x_coco/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth
    checkpoint_file = r'checkpoints\hv_second_secfpn_6x8_80e_kitti-3d-car_20200620_230238-393f000c.pth'
    # build the model from a config file and a checkpoint file
    model = init_model(config_file, checkpoint_file, device='cuda:0')
    # test a single bin
    pcd = os.path.join(base_dir, r'demo/data/kitti/kitti_000008.bin')
    result, data = inference_detector(model, pcd)
    # show the results
    show_result_meshlab(
        data,
        result,
        '',
        0,
        show=True,
        snapshot=False,
        task='det')
if __name__ == '__main__':
    demo_mmdet3d()


运行成功效果如下:


9d7365dc605344c9a561bb85eaef80e7.png

目录
相关文章
|
机器学习/深度学习 并行计算 计算机视觉
YOLOv5入门实践(5)——从零开始,手把手教你训练自己的目标检测模型(包含pyqt5界面)
YOLOv5入门实践(5)——从零开始,手把手教你训练自己的目标检测模型(包含pyqt5界面)
7361 1
YOLOv5入门实践(5)——从零开始,手把手教你训练自己的目标检测模型(包含pyqt5界面)
|
并行计算 PyTorch 测试技术
MMDetection系列 | 1. MMDetection安装流程与测试
MMDetection系列 | 1. MMDetection安装流程与测试
790 0
|
机器学习/深度学习 存储 数据可视化
【PyTorch基础教程23】可视化网络和训练过程
为了更好确定复杂网络模型中,每一层的输入结构,输出结构以及参数等信息,在Keras中可以调用一个叫做model.summary()的API能够显示我们的模型参数,输入大小,输出大小,模型的整体参数等。
1676 0
【PyTorch基础教程23】可视化网络和训练过程
|
2月前
|
机器学习/深度学习 算法 PyTorch
目标检测实战(五): 使用YOLOv5-7.0版本对图像进行目标检测完整版(从自定义数据集到测试验证的完整流程)
本文详细介绍了使用YOLOv5-7.0版本进行目标检测的完整流程,包括算法介绍、环境搭建、数据集准备、模型训练、验证、测试以及评价指标。YOLOv5以其高精度、快速度和模型小尺寸在计算机视觉领域受到广泛应用。
826 0
目标检测实战(五): 使用YOLOv5-7.0版本对图像进行目标检测完整版(从自定义数据集到测试验证的完整流程)
|
2月前
|
计算机视觉 异构计算
目标检测实战(四):YOLOV4-Tiny 源码训练、测试、验证详细步骤
这篇文章详细介绍了使用YOLOv4-Tiny进行目标检测的实战步骤,包括下载源码和权重文件、配置编译环境、进行简单测试、训练VOC数据集、生成训练文件、准备训练、开始训练以及多GPU训练的步骤。文章还提供了相应的代码示例,帮助读者理解和实践YOLOv4-Tiny模型的训练和测试过程。
199 0
|
6月前
|
机器学习/深度学习 算法 TensorFlow
算法金 | 只需十四步:从零开始掌握Python机器学习(附资源)
```markdown ## 摘要 全网同名「算法金」的作者分享了一篇针对Python机器学习入门的教程。教程旨在帮助零基础学习者掌握Python和机器学习,利用免费资源成为实践者。内容分为基础篇和进阶篇,覆盖Python基础、机器学习概念、数据预处理、科学计算库(如NumPy、Pandas和Matplotlib)以及深度学习(TensorFlow、Keras)。此外,还包括进阶算法如SVM、随机森林和神经网络。教程还强调了实践和理解最新趋势的重要性。
77 0
算法金 | 只需十四步:从零开始掌握Python机器学习(附资源)
|
数据可视化 PyTorch 算法框架/工具
量化自定义PyTorch模型入门教程
在以前Pytorch只有一种量化的方法,叫做“eager mode qunatization”,在量化我们自定定义模型时经常会产生奇怪的错误,并且很难解决。但是最近,PyTorch发布了一种称为“fx-graph-mode-qunatization”的方方法。在本文中我们将研究这个fx-graph-mode-qunatization”看看它能不能让我们的量化操作更容易,更稳定。
254 0
|
7月前
|
机器学习/深度学习 JSON 自然语言处理
python自动化标注工具+自定义目标P图替换+深度学习大模型(代码+教程+告别手动标注)
python自动化标注工具+自定义目标P图替换+深度学习大模型(代码+教程+告别手动标注)
|
7月前
|
机器学习/深度学习 传感器 算法
PyTorch基础之优化器模块、训练和测试模块讲解(附源码)
PyTorch基础之优化器模块、训练和测试模块讲解(附源码)
159 0
|
7月前
|
并行计算 PyTorch 算法框架/工具
详细讲述Yolov5从下载、配置及如何使用GPU运行
详细讲述Yolov5从下载、配置及如何使用GPU运行
3166 0

热门文章

最新文章