Ultralytics YOLO11来啦!更快!更强!

简介: YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的 Joseph Redmon 和 Ali Farhadi 开发。

01

YOLO发展历程

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的 Joseph Redmon 和 Ali Farhadi 开发。

image.png

目前YOLO11提供两种许可选项,以适应不同的使用情况:

-AGPL-3.0 许可证:这种经 OSI 批准的开源许可证非常适合学生和爱好者使用,可促进开放协作和知识共享。

-企业许可证:该许可证专为商业用途设计,允许将Ultralytics 软件和人工智能模型无缝集成到商业产品和服务中,绕过了AGPL-3.0 的开源要求。


02

模型性能

Ultralytics YOLO11,作为新的SOTA模型,不仅继承了之前YOLO系列的优势,还引入了创新特性和改进,提升了性能和灵活性。它以快速、精准、易用为特点,成为处理目标检测、跟踪、实例分割、图像分类和姿态估计等多种视觉任务的理想选择。

image.png

03

最佳实践

我们使用魔搭社区免费算力(GPU)体验YOLO11,希望能够帮助您充分利用 YOLO11。

image.png

模型链接:

https://modelscope.cn/models/AI-ModelScope/YOLO11

数据集链接:

https://modelscope.cn/datasets/modelscope/coco2017val/

代码链接:

https://github.com/ultralytics/ultralytics/

技术文档:

https://docs.ultralytics.com/

环境安装

安装ultralytics并检查运行环境。

%pip install ultralytics
import ultralytics
ultralytics.checks()

image.png

模型推理

在魔搭社区下载模型并推理,YOLO11 可直接在命令行界面 (CLI) 中使用 `yolo` 命令执行各种任务和模式,并接受其他参数,例如 `imgsz=640`。

!modelscope download --model=AI-ModelScope/YOLO11 --local_dir ./ yolo11n.pt
!yolo predict model="/mnt/workspace/yolo11n.pt" source='https://ultralytics.com/images/zidane.jpg'

image.png

模型评估

下载COCO数据集,并在COCO数据集的 `val` 或 `test` 分割上验证模型的准确性。

# Download COCO val
!modelscope download --dataset="modelscope/coco2017val" --local_dir ./ coco2017val.zip
!unzip -q coco2017val.zip -d datasets && rm coco2017val.zip  # unzip
!modelscope download --dataset="modelscope/coco2017val" --local_dir ./ coco8.zip
!unzip -q coco8.zip -d datasets && rm coco8.zip  # unzip
# Validate YOLO11n on COCO8 val
!yolo val model="/mnt/workspace/yolo11n.pt" data=coco8.yaml

image.png

模型微调

image.png

图片来源:https://raw.githubusercontent.com/ultralytics/assets/

安装和使用可视化日志工具TensorBoard

#@title Select YOLO11 🚀 logger {run: 'auto'}
!pip install tensorboard -U
logger = 'TensorBoard' #@param ['Comet', 'TensorBoard']
if logger == 'Comet':
  %pip install -q comet_ml
  import comet_ml; comet_ml.init()
elif logger == 'TensorBoard':
  %load_ext tensorboard
  %tensorboard --logdir ./runs
# Train YOLO11n on COCO8 for 3 epochs
!yolo train model="/mnt/workspace/yolo11n.pt" data=coco8.yaml epochs=3 imgsz=640

模型导出

使用“format”参数将 YOLO11 模型导出为任何支持的格式,例如“format=onnx”或者“format=torchscript”。

!yolo export model="/mnt/workspace/yolo11n.pt" format=torchscript

04

python体验

YOLO11 采用了 Python 优先原则进行重新设计,从而实现无缝的 Python YOLO 体验。YOLO11 模型可以从经过训练的检查点加载,也可以从头开始创建。如下是使用python来训练、验证、预测和导出模型的示例代码。

from ultralytics import YOLO
# Load a model
model = YOLO('yolo11n.yaml')  # build a new model from scratch
model = YOLO('yolo11n.pt')  # load a pretrained model (recommended for training)
# Use the model
results = model.train(data='coco8.yaml', epochs=3)  # train the model
results = model.val()  # evaluate model performance on the validation set
results = model('https://ultralytics.com/images/bus.jpg')  # predict on an image
results = model.export(format='onnx')  # export the model to ONNX format

任务模型

YOLO11可以在多种视觉任务上训练,评估,推理和导出。

image.png

图片来源:https://raw.githubusercontent.com/ultralytics/assets/

检测任务

YOLO11检测模型没有后缀,使用默认的 YOLO11 模型

# Load YOLO11n, train it on COCO128 for 3 epochs and predict an image with it
from ultralytics import YOLO
model = YOLO('yolo11n.pt')  # load a pretrained YOLO11n detection model
model.train(data='coco8.yaml', epochs=3)  # train the model
model('https://ultralytics.com/images/bus.jpg')  # predict on an image

分割任务

# Load YOLO11n-seg, train it on COCO128-seg for 3 epochs and predict an image with it
from ultralytics import YOLO
!modelscope download --model=AI-ModelScope/YOLO11 --local_dir ./ yolo11n-seg.pt
model = YOLO('/mnt/workspace/yolo11n-seg.pt')  # load a pretrained YOLO11n segmentation model
model.train(data='coco8-seg.yaml', epochs=3)  # train the model
model('https://ultralytics.com/images/bus.jpg')  # predict on an image

分类任务

# Load YOLO11n-cls, train it on mnist160 for 3 epochs and predict an image with it
from ultralytics import YOLO
!modelscope download --model=AI-ModelScope/YOLO11 --local_dir ./ yolo11n-cls.pt
model = YOLO('/mnt/workspace/yolo11n-cls.pt')  # load a pretrained YOLO11n classification model
model.train(data='mnist160', epochs=3)  # train the model
model('https://ultralytics.com/images/bus.jpg')  # predict on an image

动作检测任务

# Load YOLO11n-pose, train it on COCO8-pose for 3 epochs and predict an image with it
from ultralytics import YOLO
!modelscope download --model=AI-ModelScope/YOLO11 --local_dir ./ yolo11n-pose.pt
model = YOLO('yolo11n-pose.pt')  # load a pretrained YOLO11n pose model
model.train(data='coco8-pose.yaml', epochs=3)  # train the model
model('https://ultralytics.com/images/bus.jpg')  # predict on an image

定向边界框 (OBB)

# Load YOLOv8n-obb, train it on DOTA8 for 3 epochs and predict an image with it
from ultralytics import YOLO
!modelscope download --model=AI-ModelScope/YOLO11 --local_dir ./ yolo11n-obb.pt
model = YOLO('yolo11n-obb.pt')  # load a pretrained YOLOv8n OBB model
model.train(data='dota8.yaml', epochs=3)  # train the model
model('https://ultralytics.com/images/bus.jpg')  # predict on an image

image.png

点击链接👇即可跳转模型~

https://modelscope.cn/models/AI-ModelScope/YOLO11?from=alizishequ__text

相关文章
|
自然语言处理 算法 数据挖掘
自蒸馏:一种简单高效的优化方式
背景知识蒸馏(knowledge distillation)指的是将预训练好的教师模型的知识通过蒸馏的方式迁移至学生模型,一般来说,教师模型会比学生模型网络容量更大,模型结构更复杂。对于学生而言,主要增益信息来自于更强的模型产出的带有更多可信信息的soft_label。例如下右图中,两个“2”对应的hard_label都是一样的,即0-9分类中,仅“2”类别对应概率为1.0,而soft_label
自蒸馏:一种简单高效的优化方式
|
机器学习/深度学习 存储 人工智能
DeepSpeed ZeRO++:降低4倍网络通信,显著提高大模型及类ChatGPT模型训练效率
DeepSpeed ZeRO++:降低4倍网络通信,显著提高大模型及类ChatGPT模型训练效率
370 0
DeepSpeed ZeRO++:降低4倍网络通信,显著提高大模型及类ChatGPT模型训练效率
|
4月前
|
机器学习/深度学习 并行计算 PyTorch
优化技巧与策略:提高 PyTorch 模型训练效率
【8月更文第29天】在深度学习领域中,PyTorch 是一个非常流行的框架,被广泛应用于各种机器学习任务中。然而,随着模型复杂度的增加以及数据集规模的增长,如何有效地训练这些模型成为了一个重要的问题。本文将介绍一系列优化技巧和策略,帮助提高 PyTorch 模型训练的效率。
405 0
|
机器学习/深度学习 编解码 固态存储
超轻目标检测 | 超越 NanoDet-Plus、YOLOv4-Tiny实时性、高精度都是你想要的!
超轻目标检测 | 超越 NanoDet-Plus、YOLOv4-Tiny实时性、高精度都是你想要的!
791 0
超轻目标检测 | 超越 NanoDet-Plus、YOLOv4-Tiny实时性、高精度都是你想要的!
|
26天前
|
机器学习/深度学习 自然语言处理 语音技术
揭秘深度学习中的注意力机制:兼容性函数的深度解析
揭秘深度学习中的注意力机制:兼容性函数的深度解析
|
5月前
|
并行计算 数据挖掘 PyTorch
【YOLOv8改进 - 特征融合】DySample :超轻量级且高效的动态上采样器
【YOLOv8改进 - 特征融合】DySample :超轻量级且高效的动态上采样器
【YOLOv8改进 - 特征融合】DySample :超轻量级且高效的动态上采样器
|
4月前
|
机器学习/深度学习 人工智能 前端开发
BladeDISC 深度学习编译器问题之在动态shape下优化整体性能如何解决
BladeDISC 深度学习编译器问题之在动态shape下优化整体性能如何解决
|
5月前
|
自然语言处理
什么是大模型的局限性?
【7月更文挑战第25天】什么是大模型的局限性?
308 3
|
7月前
|
机器学习/深度学习 编解码 算法
YOLOv8改进 | 主干网络 | 增加网络结构增强小目标检测能力【独家创新——附结构图】
YOLOv8在小目标检测上存在挑战,因卷积导致信息丢失。本文教程将原网络结构替换为更适合小目标检测的backbone,并提供结构图。通过讲解原理和手把手教学,指导如何修改代码,提供完整代码实现,适合新手实践。文章探讨了大特征图对小目标检测的重要性,如细节保留、定位精度、特征丰富度和上下文信息,并介绍了FPN等方法。YOLOv8流程包括预处理、特征提取、融合和检测。修改后的网络结构增加了上采样和concatenate步骤,以利用更大特征图检测小目标。完整代码和修改后的结构图可在文中链接获取。
|
7月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进】 YOLOv8 更换骨干网络之GhostNetV2 长距离注意力机制增强廉价操作,构建更强端侧轻量型骨干 (论文笔记+引入代码)
该专栏聚焦YOLO目标检测的创新改进与实战,介绍了轻量级CNNs和注意力机制在移动设备上的应用。文章提出了一种名为GhostNetV2的新架构,结合了硬件友好的DFC注意力机制,强化了特征表达能力和全局信息捕获,同时保持低计算成本和高效推理。GhostNetV2在ImageNet上以167M FLOPs达到75.3%的top-1准确率,优于同类模型。创新点包括DFC注意力、模型结构优化和效率提升。源代码可在GitHub和MindSpore平台上找到。此外,还提到了YOLOv8的相关实现和任务配置。
下一篇
DataWorks