YOLOv8 目标检测 | 自定义数据集

简介: YOLOv8 目标检测 | 自定义数据集

本文介绍了使用用于目标检测的自定义数据训练 YOLOv8 模型。我正在使用来自 kaggle 的 yolo 格式的“Face Mask Dataset”,数据集链接如下:https://www.kaggle.com/datasets/maalialharbi/face-mask-dataset?resource=download


YOLOv8 是目前最先进的 YOLO 模型,可用于目标检测、图像分类和实例分割任务。


我使用 Google Colab 进行训练,如果您有兴趣使用 YOLOv5 对自定义数据进行检查,可是使用下面链接中的代码:https://github.com/Balakishan77/yolov5_custom_traffic_sign_detector


关于这个用于目标检测任务的数据集:


数据集“Face Mask Dataset”已转换好 YOLO 格式以用于检测任务。它既可以用于训练,也可以用于测试。


图像数据集可以切分如下:

测试:136 =10%

训练:990 = 70%

验证:294 = 20%

总计 = 1420 张图片


图像数据增强是为了增加数据集的大小并使其更强大。图像格式:JPEG、PNG,共有 3 个类:no_mask mask improper_mask。


训练自定义检测模型:


我正在使用 Yolov8m 对口罩数据进行自定义训练。我通过从 Google Drive 读取数据并在 Google colab 上进行训练。以下步骤将详细介绍使用 YOLOv8 在 Mask Data 上进行自定义训练:

  1. 配置 Google Colab
  2. YOLOv8 安装
  3. 安装 Google Drive
  4. 创建 face_mask_detetcion.yaml(数据集配置文件)(YOLOV8格式)
  5. 训练我们的自定义口罩检测模型
  6. 指标
  7. 使用自定义 YOLOv8 目标检测模型训练权重进行推理


1. 配置 Google Colab


Google Colab 是一个类似于 Jupiter notebook 的在线深度学习训练环境,您可以在上面的 GPU/TPU 上训练深度学习模型。Google Colab 允许您在断开连接之前免费训练深度学习模型长达 12 小时。通过访问运行时部分,将运行类型更改为 GPU 并使用以下命令检查 GPU 详细信息。



# to check and monitoring of NVIDIA GPU devices.
!nvidia-smi

2. YOLOv8 安装


我们可以通过 clone git 上面的代码或使用 torch hub 使用 YOLOv5。最近的 YOLOv8 已经发布为 pip 包,所以我们不需要 clone 任何代码,便可以安装 v8 版本所有的依赖项。


# installing package to work with yolov8 
!pip install ultralytics

3. 安装 Google Drive


我已经将 mask_dataset 文件夹上传到“MyDrive/datasets/mask_dataset/”路径中的 Google Drive,我将使用以下代码进行安装。(它会要求您输入授权码,您可以通过单击下面显示的链接来输入授权码)。标注数据已按照图像和标签(文本文件)分开的方式进行切分。

    from google.colab import drive 
    drive.mount('/content/drive')

    YOLOv8格式:


    YOLOv8 的格式与 Yolov5 相同。YOLO 格式,每个图像有一个对应的 .txt 文件(如果图像中没有对象,则不需要 .txt 文件)。*.txt 文件规范为:


    每个对象对应一行,每行依次保存了 class, x_center, y_center width height。框坐标必须采用 xywh 格式(归一化到 0–1)。如果您的框以像素为单位,请将 x_center 和 width 除以图像 width,将 y_center 和 height 除以图像 heigth。class 是从零进行索引的。下面我们将探索数据集中的一些示例图像。


    # Checking the size of images and displaying them
    import numpy as np
    import cv2
    # Image shape in Training
    image = cv2.imread('/content/drive/MyDrive/datasets/mask_dataset/train/images/5e353e347af50726986e84c0.jpeg')
    height = np.size(image, 0)
    width = np.size(image, 1)
    print ("shape of the training image {}, {}".format(height, width))
    # Image shape in validation
    image = cv2.imread('/content/drive/MyDrive/datasets/mask_dataset/valid/images/maksssksksss67.png')
    height = np.size(image, 0)
    width = np.size(image, 1)
    print ("shape of the validation image {}, {}".format(height, width))

    # dispying with different width
    from IPython.display import Image 
    Image(filename='/content/drive/MyDrive/datasets/mask_dataset/train/images/5e353e347af50726986e84c0.jpeg', width=300)


    4. 创建 face_mask_detetcion.yaml(数据集配置文件)

    “face mask dataset”中的图像拆分如下:


    • 训练:990 = 70%
    • 验证:294 = 20%
    • 测试:136 =10%
      (我没有使用测试数据集,而是用一些来自互联网的视频进行测试)
    • 总计 = 1420 张图片


    下面创建的 mask_dataset/face_mask_detetcion.yaml 是定义以下内容的数据集配置文件:


    数据集根目录路径和 train / test /val 图像目录的相对路径(或带有图像路径的 *.txt 文件)

    • nc:类别数目
    • names:类名列表
    # I will write the contents of the cell to a file
    %%writefile /content/drive/MyDrive/datasets/mask_dataset/face_mask_detection.yaml 
    # Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
    path: /content/drive/MyDrive/datasets/mask_dataset # dataset root dir
    train: train/images/ # train images (relative to 'path')
    val: valid/images/ # val images (relative to 'path')
    test:  # test images (optional)
    # number of classes
    nc: 3
    # class names
    #names: ['0', '1', '2']
    names: [ 'no_mask', 'mask','improper_mask']  # class names

    5. 训练我们自定义口罩检测模型


    我正在使用 YOLOv8m 预训练模型对口罩数据集进行训练。我们可以调整多个参数以获得更好的结果,我正在使用 yolov8m 模型训练 25 个 epoch。


    参数:

    • 指定数据配置文件的路径
    • 输入图像尺寸
    • epoch
    from ultralytics import YOLO
    # Load a model
    # model = YOLO("yolov8m.yaml")  # build a new model from scratch
    model = YOLO("yolov8m.pt")  # load a pretrained model (recommended for training)
    # Use the model
    results = model.train(data="/content/drive/MyDrive/datasets/mask_dataset/face_mask_detection.yaml", epochs=25, imgsz=640)  # train the model

    VAL:

    在验证数据集上验证经过训练的 YOLOv8m 模型准确性。不需要传递参数,因为模型将其训练数据和参数保留为一个完整模型。


    results = model.val()  # evaluate model performance on the validation set

    6. 指标


    每个类别和整体的训练 mAP 效果都很好,视频测试结果也很好。如果我们针对 epoch 进行训练,添加更多数据并使用超参数可以提高模型的性能。下面我们可以看到 Precision-Recall 和 F1 置信度曲线。

      # dislaying metrics for train data
      from IPython.display import Image
      from IPython.display import display
      x = Image(filename='runs/detect/train2/F1_curve.png') 
      y = Image(filename='runs/detect/train2/PR_curve.png') 
      z = Image(filename='runs/detect/train2/confusion_matrix.png') 
      display(x, y,z)


      7. 推理


      # checking the latest trained files
      !ls 'runs/detect/train2/weights'
      best.pt  last.pt
      # loading the trianed model
      model = YOLO("runs/detect/train2/weights/best.pt")  # load a custom model
      # testing the model on a video
      !yolo task=detect mode=predict model="runs/detect/train2/weights/best.pt" source="/content/drive/MyDrive/datasets/mask_dataset/mask_testing.mp4"

      下面是使用该模型对图像进行推理的示例。


      下面提供了使用经过训练模型推理并进行标注的视频链接:

      https://github.com/Balakishan77/Yolov8-Custom-ObjectDetetction/blob/main/face_mask_detetcion_yolov8.mp4


      结论


      根据推理结果,经过训练的模型效果很好。我们可以尝试通过使用更大型的 YOLOv8 模型、扩增数据集和添加超参数的方式对模型进行改进,小伙伴们有兴趣可以自行尝试。

      相关实践学习
      部署Stable Diffusion玩转AI绘画(GPU云服务器)
      本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
      相关文章
      |
      7月前
      |
      机器学习/深度学习 JSON 算法
      如何在自定义数据集上训练 YOLOv8 实例分割模型
      在本文中,我们将介绍微调 YOLOv8-seg 预训练模型的过程,以提高其在特定目标类别上的准确性。Ikomia API简化了计算机视觉工作流的开发过程,允许轻松尝试不同的参数以达到最佳结果。
      【yolo训练数据集】标注好的垃圾分类数据集共享
      【yolo训练数据集】标注好的垃圾分类数据集共享
      2253 134
      【yolo训练数据集】标注好的垃圾分类数据集共享
      |
      7月前
      |
      机器学习/深度学习 开发工具 计算机视觉
      YOLOv8 目标检测 | 自定义数据集
      YOLOv8 目标检测 | 自定义数据集
      |
      2月前
      |
      数据可视化 计算机视觉
      训练数据集(一):真实场景下采集的煤矸石目标检测数据集,可直接用于YOLOv5/v6/v7/v8训练
      本文介绍了一个用于煤炭与矸石分类的煤矸石目标检测数据集,包含891张训练图片和404张验证图片,分为煤炭、矸石和混合物三类。数据集已标注并划分为训练和验证集,适用于YOLOv5/v6/v7/v8训练。数据集可通过提供的链接下载。
      82 1
      训练数据集(一):真实场景下采集的煤矸石目标检测数据集,可直接用于YOLOv5/v6/v7/v8训练
      |
      2月前
      |
      XML JSON 数据可视化
      数据集学习笔记(六):目标检测和图像分割标注软件介绍和使用,并转换成YOLO系列可使用的数据集格式
      本文介绍了labelImg和labelme两款图像标注工具的安装、使用、数据转换和验证方法,适用于目标检测和图像分割任务,支持YOLO等数据集格式。
      452 2
      数据集学习笔记(六):目标检测和图像分割标注软件介绍和使用,并转换成YOLO系列可使用的数据集格式
      |
      2月前
      |
      机器学习/深度学习 JSON 数据可视化
      YOLO11-pose关键点检测:训练实战篇 | 自己数据集从labelme标注到生成yolo格式的关键点数据以及训练教程
      本文介绍了如何将个人数据集转换为YOLO11-pose所需的数据格式,并详细讲解了手部关键点检测的训练过程。内容涵盖数据集标注、格式转换、配置文件修改及训练参数设置,最终展示了训练结果和预测效果。适用于需要进行关键点检测的研究人员和开发者。
      423 0
      |
      4月前
      |
      数据采集 人工智能 小程序
      如何制作数据集并基于yolov5训练成模型并部署
      这篇文章介绍了如何为YOLOv5制作数据集、训练模型、进行模型部署的整个流程,包括搜集和标注图片、创建数据集文件夹结构、编写配置文件、训练和评估模型,以及将训练好的模型部署到不同平台如ROS机器人、微信小程序和移动应用等。
      如何制作数据集并基于yolov5训练成模型并部署
      |
      6月前
      |
      存储 API 计算机视觉
      实战|YOLOv10 自定义目标检测
      实战|YOLOv10 自定义目标检测
      283 1
      |
      6月前
      |
      计算机视觉
      【YOLOv10训练教程】如何使用YOLOv10训练自己的数据集并且推理使用
      【YOLOv10训练教程】如何使用YOLOv10训练自己的数据集并且推理使用
      |
      7月前
      |
      机器学习/深度学习 编解码 算法
      目标检测舰船数据集整合
      目标检测舰船数据集整合
      849 0