mmdetection目标检测训练自己的数据

简介: mmdetection目标检测训练自己的数据

2a802602dcd42a5dd919ec2de7c4c86d_4d1e72db95ac40fd8de44fa3ae878d0e.png


环境搭建


代码地址:https://github.com/TexasInstruments/edgeai-mmdetection


先下载代码到本地,或者终端git clone https://github.com/TexasInstruments/edgeai-mmdetection.git


上面完成后。


1 需创建虚拟环境:


如: conda create --name mmdet python==3.7


2 运行设置环境代码


conda activate mmdet  (上述环境名字)

在终端根目录运行./setup.sh文件

完成上述后会生成"mmdet" 文件夹


3 重点配置


并在完成后最后一行提醒你 上述库依torchvision包接下来你要键入git clone

https://github.com/TexasInstruments/edgeai-torchvision.git

完成后会在文件夹出现edgeai-torchvision


4 安装所有依赖库


cd进入torchvision文件夹

继续运行 ./setup.sh文件

至此所有的依赖库安装完毕


5 训练自己的数据集


1.需要将你的数据弄成VOC格式或者coco格式


2.将数据放在data/VOCdevkit/下,如下图所示


0ca790f2935b3c80e14855185353316d_0ca7461f9539449080c73a9c7df1d922.png


6更改配置文件


1.修改mmdetection/mmdet/datasets/voc.py中

CLASSES = ('cat1', 'dog', 'pig') 换成你的标签名。


2.修改mmdetection/mmdet/core/evaluation/class names.py


将类别换成

def voc_classes():
    return [
        'cat1', 'dog', 'pig' 
    ]
    #改类别


3.tools/train.py

修改cfq.qpu ids 来更改自己所要用到的GPU个数和id


4.tools/train.py

133行修改权重保存路径


4.scripts/train detection main.py

修改 distribute=0 或者1,来选择是否分布式训练,训练报错时 选为0会有可能解决BUG

修改dataset style=“voc”或者“coco”


5.在config/edgeai/ssd/ssdmobilenet fon_lite.py修改num classes


6.config/edgeai/ssd/xbase

修改epoch和打印信息以及多少epoch保存一次权重等


相关文章
|
机器学习/深度学习 自然语言处理 算法
多模态融合可能的突破方向
【2月更文挑战第21天】多模态融合可能的突破方向
417 1
多模态融合可能的突破方向
|
算法 测试技术 vr&ar
【论文速递】CVPR2022 : 用于目标跟踪的统一transformer跟踪器
【论文速递】CVPR2022 : 用于目标跟踪的统一transformer跟踪器
|
3月前
|
存储 搜索推荐 安全
几个常用的电商API接口及其应用场景
电商平台依赖商品、订单、支付、客户、营销及数据分析六大API,实现商品管理、订单追踪、安全支付、用户个性化服务及精准营销等功能,全面支撑电商高效运营与业务拓展,推动行业智能化发展。
|
XML JSON 数据可视化
数据集学习笔记(二): 转换不同类型的数据集用于模型训练(XML、VOC、YOLO、COCO、JSON、PNG)
本文详细介绍了不同数据集格式之间的转换方法,包括YOLO、VOC、COCO、JSON、TXT和PNG等格式,以及如何可视化验证数据集。
3343 1
数据集学习笔记(二): 转换不同类型的数据集用于模型训练(XML、VOC、YOLO、COCO、JSON、PNG)
|
存储 JSON 开发框架
循序渐进VUE+Element 前端应用开发(27)--- 数据表的动态表单设计和数据存储
循序渐进VUE+Element 前端应用开发(27)--- 数据表的动态表单设计和数据存储
|
机器学习/深度学习 并行计算 PyTorch
安装PyTorch详细步骤
安装PyTorch时,选择CPU或GPU版本。有Nvidia显卡需装CUDA和cuDNN,可从NVIDIA官网下载CUDA 11.8和对应版本cuDNN。无Nvidia显卡则安装CPU版。安装PyTorch通过conda或pip,GPU版指定`cu118`或`rocm5.4.2`镜像源。验证安装成功使用`torch._version_`和`torch.cuda.is_available()`。
|
机器学习/深度学习 人工智能 监控
论文介绍:Masked-attention Mask Transformer (Mask2Former)——通用图像分割的新架构
【5月更文挑战第24天】Mask2Former,一种新型的图像分割架构,采用遮蔽注意力机制聚焦局部特征,提升模型收敛速度和性能,在COCO、Cityscapes等数据集上刷新记录。其元架构结合背景特征提取器、像素解码器和Transformer解码器,实现高效训练和性能提升。尽管在处理小对象和泛化能力上仍有局限,但Mask2Former为通用图像分割开辟了新路径。[链接](https://arxiv.org/abs/2112.01527)
1030 5
|
计算机视觉
【YOLOv10改进-损失函数】Shape-IoU:考虑边框形状与尺度的指标
YOLO目标检测专栏探讨了边框回归损失的创新方法,强调了目标形状和尺度对结果的影响。提出的新方法Shape-IoU关注边框自身属性,通过聚焦形状和尺度提高回归精度。实验显示,该方法提升了检测效果,超越现有技术,在多个任务中达到SOTA。论文和代码已公开。
|
计算机视觉 机器学习/深度学习 自然语言处理
【YOLOv8改进】CoTAttention:上下文转换器注意力(论文笔记+引入代码)
本文介绍了YOLO目标检测的创新改进,提出了一种名为Contextual Transformer (CoT)块的新型Transformer模块,用于增强视觉识别能力。CoT块通过3×3卷积编码上下文信息,并结合动态多头注意力矩阵,提高了视觉表示。此外,还提到了Large Separable Kernel Attention (LSKA)模块,它解决了大内核卷积的计算效率问题。CoTNet是基于CoT模块的Transformer风格骨干网络,可替代ResNet中的3×3卷积。CoTAttention类展示了如何在YOLOv8中集成此模块。文章还提供了源码链接和更多实战案例详情。