轻松搭建主干网络,多种视觉任务一网打尽

简介: 这里,以我们最为常见的跨任务研究——搭建主干网络为例,介绍一下如何快速开发一个新的主干网络,并分别使用 MMClassification、MMDetection 和 MMSegmentation 轻松实现分类、检测和分割任务上的评测。

OpenMMLab 框架几乎全面覆盖了深度学习视觉任务的方方面面。针对每一个具体的任务,我们都提供了一个相应的算法库,如用于分类任务的 MMClassification,用于检测任务的 MMDetection 和用于分割任务的 MMSegmentation 等等。


随之而来的一个问题是,如果我希望将研究的方法应用于多个任务,在多个任务上进行评测,是不是要把各个算法库都 fork 一份?更进一步地,如果我希望将我依赖 OpenMMLab 框架的代码开源出去,应该怎么做呢?


这里,以我们最为常见的跨任务研究——搭建主干网络为例,介绍一下如何快速开发一个新的主干网络,并分别使用 MMClassification、MMDetection 和 MMSegmentation 轻松实现分类、检测和分割任务上的评测。


在示例仓库中,我们以 ConvNeXt 为例,展示了搭建主干网络并进行基准测试所需要的文件。那么下面,让我们以这个示例仓库为例,一步一步了解如何搭建自己的主干网络吧。


配置环境



首先,我们需要配置 Python 和 PyTorch 环境,相信对 PyTorch 驾轻就熟的大家一定已经准备好了这些环境。需要注意的是,我们要求 Python >= 3.6,PyTorch >= 1.5.0,更新的版本当然也没有问题。

假设你已经准备好了 Python 和 PyTorch 环境,那么只需要下面两行命令,就可以配置好软件环境。


数据准备



假设我们希望在 ImageNet 上进行分类任务基准测试,在 ADE20K 上进行语义分割任务基准测试,在 COCO 上进行检测任务基准测试,那么就需要按照以下格式组织好数据文件。

data/
├── imagenet
│   ├── train
│   ├── val
│   └── meta
│       ├── train.txt
│       └── val.txt
├── ade
│   └── ADEChallengeData2016
│       ├── annotations
│       └── images
└── coco
    ├── annotations
    │   ├── instance_train2017.json
    │   └── instance_val2017.json
    ├── train2017
    └── val2017

这里,我们只列举了用于训练和验证的必要文件。如果你希望在更多数据集或任务上进行基准测试,比如使用 MMDetection 进行全景分割,只需要按照 MMDetection 的需要组织对应的数据集即可。另外,MMSegmentation 还提供了一篇教程讲解如何组织语义分割相关数据集。

实现你的主干网络



准备工作一切就绪,接下来让我们开始一步步实现和训练我们的主干网络吧~


首先是实现:


1)在 models 文件夹下创建你的主干网络文件。例如示例仓库中的 models/convnext.py。在这个文件中,只需要使用 PyTorch 实现你的主干网络即可,额外需要注意的只有以下两点:


a. 主干网络和主要模块需要继承 mmcv.runner.BaseModule。这个 BaseModule 是 torch.nn.Module 的子类, 其行为几乎完全一致,除了它额外支持使用 init_cfg 参数指定包括预训练模型在内的初始化方法。


b. 使用如下的装饰器结构,将你的主干网络类注册至 mmcls.models.BACKBONES 注册器。

from mmcv.runner import BaseModule
from mmcls.models import BACKBONES
@BACKBONES.register_module(force=True)
class MyBackbone(BaseModule):
    ...

2)【可选】如果你希望为某些特定的任务增加一些额外的模块、组件,可以参照 models/det/layer_decay_optimizer_constructor.py 添加至对应的文件夹中。


3)将你添加的主干网络、自定义组件添加至 models/__init__.py 文件中。


添加配置文件



如果你还不太清楚配置文件是怎么回事,这篇教程应该可以帮到你。

通常来说,我们使用若干基础配置文件,通过继承的方式来组织一个实验的配置文件。这些基础配置文件一般包括模型、数据集、优化策略和运行配置。你也可以在配置文件中对基础配置文件进行覆盖,或者不使用基础配置文件,全部写到一个配置文件里。


在本示例库中,我们提供了一套比较常用的基础配置文件,可以访问对应的算法库找到更多有用的基础配置文件。


对每个不同的任务,对应的配置文件可以放在放在 configs 目录中不同的子文件夹。需要注意的是,在配置文件的 model 部分,为了能够使 MMDetection 和 MMSegmentation 能够调用注册在 mmcls.models.BACKBONES 的主干网络,我们需要在 MMDetection 和 MMSegmentation 的配置文件中额外指定主干网络注册器的位置,这只需要在 type 中添加 mmcls. 前缀即可,如:

model = dict(
    backbone=dict(type='mmcls.MyBackbone', ...),
    ...
)

训练和测试



依托于 OpenMMLab 提供的统一实验管理工具—— MIM,我们在实现了模型、编写了配置文件之后,不需要写任何 Python 脚本就可以进行不同任务的训练和测试。


首先,我们需要将当前仓库的目录添加到 PYTHONPATH 环境变量中,这样 Python 才可以找到我们的模型文件,在仓库根目录运行如下指令:


export PYTHONPATH=`pwd`:$PYTHONPATH


单机单 GPU



# 训练分类模型
mim train mmcls $CONFIG --work-dir $WORK_DIR
# 测试分类模型
mim test mmcls $CONFIG -C $CHECKPOINT --metrics accuracy --metric-options "topk=(1, 5)"
# 训练目标检测/实例分割模型
mim train mmdet $CONFIG --work-dir $WORK_DIR
# 测试目标检测/实例分割模型
mim test mmdet $CONFIG -C $CHECKPOINT --eval bbox segm
# 训练语义分割模型
mim train mmseg $CONFIG --work-dir $WORK_DIR
# 测试语义分割模型
mim test mmseg $CONFIG -C $CHECKPOINT --eval mIoU

一些参数的说明:


- $CONFIG:configs/ 文件夹中的配置文件

- $WORK_DIR:用于保存日志和权重文件的文件夹

- $CHECKPOINT:权重文件路径

单机多 GPU (以 4 GPU 为例)



# 训练分类模型
mim train mmcls $CONFIG --work-dir $WORK_DIR --launcher pytorch --gpus 4
# 测试分类模型
mim test mmcls $CONFIG -C $CHECKPOINT --metrics accuracy --metric-options "topk=(1, 5)" --launcher pytorch --gpus 4
# 训练目标检测/实例分割模型
mim train mmdet $CONFIG --work-dir $WORK_DIR --launcher pytorch --gpus 4
# 测试目标检测/实例分割模型
mim test mmdet $CONFIG -C $CHECKPOINT --eval bbox segm --launcher pytorch --gpus 4
# 训练语义分割模型
mim train mmseg $CONFIG --work-dir $WORK_DIR --launcher pytorch --gpus 4 
# 测试语义分割模型
mim test mmseg $CONFIG -C $CHECKPOINT --eval mIoU --launcher pytorch --gpus 4


文章来源:【OpenMMLab

2022-04-12 18:19


相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
目录
相关文章
|
2天前
|
机器学习/深度学习
大模型开发:解释卷积神经网络(CNN)是如何在图像识别任务中工作的。
**CNN图像识别摘要:** CNN通过卷积层提取图像局部特征,池化层减小尺寸并保持关键信息,全连接层整合特征,最后用Softmax等分类器进行识别。自动学习与空间处理能力使其在图像识别中表现出色。
27 2
|
2天前
|
计算机视觉
【论文复现】经典再现:yolov4的主干网络重构(结合Slim-neck by GSConv)
【论文复现】经典再现:yolov4的主干网络重构(结合Slim-neck by GSConv)
66 0
【论文复现】经典再现:yolov4的主干网络重构(结合Slim-neck by GSConv)
|
2天前
|
机器学习/深度学习 测试技术 Ruby
YOLOv8改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
YOLOv8改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
111 0
|
2天前
|
机器学习/深度学习 测试技术 Ruby
YOLOv5改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
YOLOv5改进 | 主干篇 | 反向残差块网络EMO一种轻量级的CNN架构(附完整代码 + 修改教程)
143 2
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
|
2天前
|
SQL 安全 测试技术
2021年职业院校技能大赛“网络安全”项目 江西省比赛任务书—B模块
B模块涵盖安全事件响应和网络数据取证,涉及多项应用安全挑战。任务包括使用nmap扫描靶机、弱口令登录、生成反弹木马、权限验证、系统内核版本检查、漏洞源码利用、文件名和内容提取等。此外,还有Linux渗透测试,要求访问特定目录下的文件并提取内容。应用服务漏洞扫描涉及服务版本探测、敏感文件发现、私钥解密、权限提升等。SQL注入测试需利用Nmap扫描端口,进行SQL注入并获取敏感信息。应急响应任务包括处理木马、删除恶意用户、修复启动项和清除服务器上的木马。流量分析涉及Wireshark数据包分析,查找黑客IP、枚举测试、服务破解等。渗透测试任务涵盖系统服务扫描、数据库管理、漏洞利用模块搜索等。
25 0
|
2天前
|
监控 安全 网络安全
2021年职业院校技能大赛“网络安全”项目 江西省比赛任务书—A模块
该文档是关于企业服务器系统安全加固的任务描述,包括A模块的六个部分:登录安全、Web安全、流量保护与事件监控、防火墙策略、Windows和Linux操作系统安全配置。任务涉及设置密码和登录策略、启用安全日志、限制非法访问、调整防火墙规则、加强操作系统安全和优化服务配置等,以提升网络安全防御能力。每个部分都有具体的配置截图要求,并需按照指定格式保存提交。
16 0
|
2天前
|
机器学习/深度学习 算法 PyTorch
【PyTorch实战演练】深入剖析MTCNN(多任务级联卷积神经网络)并使用30行代码实现人脸识别
【PyTorch实战演练】深入剖析MTCNN(多任务级联卷积神经网络)并使用30行代码实现人脸识别
108 2
|
2天前
|
机器学习/深度学习 PyTorch 算法框架/工具
探索未来的视觉革命:卷积神经网络的崭新时代(二)
探索未来的视觉革命:卷积神经网络的崭新时代(二)
探索未来的视觉革命:卷积神经网络的崭新时代(二)
|
2天前
|
机器学习/深度学习 自然语言处理 计算机视觉
探索未来的视觉革命:卷积神经网络的崭新时代(一)
探索未来的视觉革命:卷积神经网络的崭新时代(一)
探索未来的视觉革命:卷积神经网络的崭新时代(一)

热门文章

最新文章