Ultralytics YOLO26来啦!5种尺寸全家桶,速度与精度兼顾

简介: Ultralytics发布YOLO26,系列迄今最先进、易部署的模型,支持分类、检测、分割、姿态估计等多任务。五种尺寸灵活适配边缘设备,CPU推理提速43%,首创无NMS端到端推理,移除DFL提升兼容性,已上架魔搭社区。(239字)

Ultralytics 近期推出了最新的 YOLO26 模型,作为该系列迄今为止最先进、同时也是最易于部署的迭代版本,重新定义了跨行业计算机视觉应用的新范式,为边缘计算、低功耗设备场景提供了尖端解决方案。


与此前的 Ultralytics YOLO 系列一样,YOLO26 依然采用统一的模型家族设计,能够支持多种计算机视觉任务。模型提供五种尺寸选择:Nano(n)、Small(s)、Medium(m)、Large(l)和 Extra Large(x),团队可以根据部署环境,在速度、精度和模型体量之间进行灵活取舍。


在性能层面,YOLO26 进一步提升了性能上限。与 YOLO11 相比,YOLO26 的 Nano 版本在 CPU 推理场景下最高可实现 43% 的性能提升,成为目前边缘端和基于 CPU 部署场景中速度与精度兼顾的领先目标检测模型之一。


Ultralytics YOLO 系列模型,已正式上架「魔搭社区(ModelScope)」

快速上手体验:https://modelscope.cn/studios/Ultralytics/yolo26

官网:

https://platform.ultralytics.com/ultralytics/yolo26


官方文档:

https://docs.ultralytics.com/models/yolo26/


YOLO26 支持的计算机视觉任务包括:

  • 图像分类:对整张图像进行分析,并归类到指定类别,帮助系统理解场景整体语义。
  • 目标检测:在图像或视频中定位并识别多个目标。
  • 实例分割:能以像素级精度勾勒单个物体轮廓。
  • 姿态估计:识别关键点并估计人体或其他对象的姿态。
  • 旋转框(OBB)检测:支持不同角度目标检测,适用于航拍和卫星影像。
  • 目标跟踪:结合 Ultralytics Python 包,可在视频流中持续跟踪目标。


所有任务在同一框架下支持训练、验证、推理与模型导出。


Ultralytics YOLO26 的关键创新

Ultralytics YOLO26 引入了多项核心创新,全面提升了推理速度、训练稳定性和部署便捷性,主要包括:

  • 移除分布焦点损失(DFL):删除了 DFL 模块,简化了边界框预测过程,提升了硬件兼容性,让模型更易于导出并在边缘设备和低功耗硬件上运行。
  • 端到端无 NMS 推理:YOLO26 原生支持端到端推理,可直接输出最终预测结果,无需依赖非极大值抑制(NMS),减少了推理延迟和部署复杂度。
  • 渐进式损失平衡(ProgLoss)+ 小目标感知标签分配(STAL):这些优化的损失策略稳定了训练过程,提升了检测精度,尤其针对难以检测的小目标。
  • MuSGD 优化器:采用全新混合优化器,融合了 SGD 与 Muon 的优化方法,模型训练更加稳定。
  • CPU 推理速度提升高达 43% :专为边缘计算优化,YOLO26 的 CPU 推理速度提升高达 43%,可在边缘设备上实现实时性能。

移除分布焦点损失(DFL),简化预测流程

早期 YOLO 模型在训练过程中使用分布焦点损失(DFL)来提升边界框精度。尽管这一方法有效,但 DFL 增加了模型复杂度,且对回归范围设置了固定限制,给模型导出和部署带来挑战,尤其在边缘设备和低功耗硬件上表现更为明显。

YOLO26 完全移除了 DFL 模块。这一改动消除了早期模型中固定的边界框回归限制,提升了检测超大物体时的可靠性和准确性。

通过简化边界框预测流程,YOLO26 更易于导出,且能在各类边缘设备和低功耗硬件上稳定运行。

端到端无 NMS 推理

传统目标检测流程依赖非极大值抑制(NMS)作为后处理步骤,用于过滤重叠预测结果。尽管 NMS 效果显著,但它会增加延迟和复杂度,且在多运行时环境和不同硬件目标上部署时容易出现不稳定问题。

YOLO26 引入原生端到端推理模式,模型可直接输出最终预测结果,无需将 NMS 作为独立的后处理步骤。重复预测的过滤的操作在网络内部完成。

移除 NMS 不仅降低了延迟,简化了部署流程,还减少了集成错误的风险,使 YOLO26 特别适合实时部署和边缘部署场景。

渐进式损失平衡(ProgLoss)+ 小目标感知标签分配(STAL),提升识别能力

训练相关的关键特性是引入了渐进式损失平衡(ProgLoss)和小目标感知标签分配(STAL)。这些优化的损失函数有助于稳定训练过程,提升检测精度。

ProgLoss 让模型在训练过程中学习更稳定,减少了训练波动,使模型收敛更平稳。同时,STAL 则针对小目标进行了优化,改善模型在视觉信息有限情况下的学习效果。

ProgLoss 和 STAL 的结合实现了更可靠的检测效果,尤其在小目标识别方面有显著提升。这一点对于物联网(IoT)、机器人技术和航空影像等边缘应用至关重要,因为在这些场景中,物体往往体积小、距离远或部分可见。

MuSGD 优化器,实现更稳定的训练

YOLO26 采用了一种新的优化器 MuSGD,用于提升训练的稳定性和效率。MuSGD 将传统随机梯度下降(SGD)的优势,与源自大语言模型训练的 Muon 类优化思想相结合。

SGD 在计算机视觉领域长期被证明具有良好的泛化能力,而近年的大模型训练经验也表明,适当引入新的优化策略可以进一步提升稳定性和效率。MuSGD 将这些理念引入了计算机视觉领域。

受 Moonshot AI 的 Kimi K2 训练经验启发,MuSGD 融入了有助于模型更平稳收敛的优化策略。这使得 YOLO26 能够更快地达到出色性能,同时减少训练不稳定性,尤其在更大规模或更复杂的训练场景中效果显著。

MuSGD 让 YOLO26 在不同模型尺寸下的训练都更具可预测性,既提升了性能,又增强了训练稳定性。

CPU 推理速度提升高达 43%

随着 Vision AI 不断向数据产生端靠近,边缘性能的重要性持续提升。YOLO26 针对边缘计算场景进行了深度优化,在无 GPU 的条件下,CPU 推理速度最高提升可达 43%。

这一能力使实时视觉系统能够直接运行在摄像头、机器人和嵌入式硬件上,满足低延迟、高可靠性和成本受限的实际需求。

对视觉任务进一步优化

除了提升目标检测精度的架构改进外,YOLO26 还包含针对特定任务的优化,旨在全面提升各类计算机视觉任务的性能。

  • 实例分割:YOLO26 使用语义分割损失改进模型的训练学习过程,从而生成更准确、更一致的实例掩码。升级后的原型模块支持利用多尺度信息,使模型在复杂场景中也能有效处理不同尺寸的物体。
  • 姿态估计:集成 Residual Log-Likelihood Estimation(RLE),更好地建模关键点预测的不确定性,同时优化解码流程,实现更高精度与实时性。
  • 旋转边界框检测:新增角度损失函数,帮助模型更准确地学习物体旋转角度,尤其适用于方向模糊的方形物体。优化后的 OBB 解码过程减少了旋转边界附近角度预测的突变,实现了更稳定、一致的方向估计。


点击即可跳转模型合集:https://www.modelscope.cn/organization/Ultralytics


目录
相关文章
|
13天前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
8天前
|
人工智能 安全 机器人
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI助手,支持钉钉、飞书等多平台接入。本教程手把手指导Linux下部署与钉钉机器人对接,涵盖环境配置、模型选择(如Qwen)、权限设置及调试,助你快速打造私有、安全、高权限的专属AI助理。(239字)
4933 13
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
|
9天前
|
人工智能 机器人 Linux
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI智能体,支持飞书等多平台对接。本教程手把手教你Linux下部署,实现数据私有、系统控制、网页浏览与代码编写,全程保姆级操作,240字内搞定专属AI助手搭建!
4930 17
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
|
7天前
|
人工智能 机器人 Linux
OpenClaw(Clawdbot、Moltbot)汉化版部署教程指南(零门槛)
OpenClaw作为2026年GitHub上增长最快的开源项目之一,一周内Stars从7800飙升至12万+,其核心优势在于打破传统聊天机器人的局限,能真正执行读写文件、运行脚本、浏览器自动化等实操任务。但原版全英文界面对中文用户存在上手门槛,汉化版通过覆盖命令行(CLI)与网页控制台(Dashboard)核心模块,解决了语言障碍,同时保持与官方版本的实时同步,确保新功能最快1小时内可用。本文将详细拆解汉化版OpenClaw的搭建流程,涵盖本地安装、Docker部署、服务器远程访问等场景,同时提供环境适配、问题排查与国内应用集成方案,助力中文用户高效搭建专属AI助手。
3516 8
|
11天前
|
人工智能 JavaScript 应用服务中间件
零门槛部署本地AI助手:Windows系统Moltbot(Clawdbot)保姆级教程
Moltbot(原Clawdbot)是一款功能全面的智能体AI助手,不仅能通过聊天互动响应需求,还具备“动手”和“跑腿”能力——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可接入Qwen、OpenAI等云端API,或利用本地GPU运行模型。本教程专为Windows系统用户打造,从环境搭建到问题排查,详细拆解全流程,即使无技术基础也能顺利部署本地AI助理。
7342 16
|
9天前
|
存储 人工智能 机器人
OpenClaw是什么?阿里云OpenClaw(原Clawdbot/Moltbot)一键部署官方教程参考
OpenClaw是什么?OpenClaw(原Clawdbot/Moltbot)是一款实用的个人AI助理,能够24小时响应指令并执行任务,如处理文件、查询信息、自动化协同等。阿里云推出的OpenClaw一键部署方案,简化了复杂配置流程,用户无需专业技术储备,即可快速在轻量应用服务器上启用该服务,打造专属AI助理。本文将详细拆解部署全流程、进阶功能配置及常见问题解决方案,确保不改变原意且无营销表述。
5297 5
|
11天前
|
人工智能 JavaScript API
零门槛部署本地 AI 助手:Clawdbot/Meltbot 部署深度保姆级教程
Clawdbot(Moltbot)是一款智能体AI助手,具备“手”(读写文件、执行代码)、“脚”(联网搜索、分析网页)和“脑”(接入Qwen/OpenAI等API或本地GPU模型)。本指南详解Windows下从Node.js环境搭建、一键安装到Token配置的全流程,助你快速部署本地AI助理。(239字)
4953 22
|
17天前
|
人工智能 API 开发者
Claude Code 国内保姆级使用指南:实测 GLM-4.7 与 Claude Opus 4.5 全方案解
Claude Code是Anthropic推出的编程AI代理工具。2026年国内开发者可通过配置`ANTHROPIC_BASE_URL`实现本地化接入:①极速平替——用Qwen Code v0.5.0或GLM-4.7,毫秒响应,适合日常编码;②满血原版——经灵芽API中转调用Claude Opus 4.5,胜任复杂架构与深度推理。
9463 13