Ultralytics 近期推出了最新的 YOLO26 模型,作为该系列迄今为止最先进、同时也是最易于部署的迭代版本,重新定义了跨行业计算机视觉应用的新范式,为边缘计算、低功耗设备场景提供了尖端解决方案。
与此前的 Ultralytics YOLO 系列一样,YOLO26 依然采用统一的模型家族设计,能够支持多种计算机视觉任务。模型提供五种尺寸选择:Nano(n)、Small(s)、Medium(m)、Large(l)和 Extra Large(x),团队可以根据部署环境,在速度、精度和模型体量之间进行灵活取舍。
在性能层面,YOLO26 进一步提升了性能上限。与 YOLO11 相比,YOLO26 的 Nano 版本在 CPU 推理场景下最高可实现 43% 的性能提升,成为目前边缘端和基于 CPU 部署场景中速度与精度兼顾的领先目标检测模型之一。
Ultralytics YOLO 系列模型,已正式上架「魔搭社区(ModelScope)」
快速上手体验:https://modelscope.cn/studios/Ultralytics/yolo26
官网:
https://platform.ultralytics.com/ultralytics/yolo26
官方文档:
https://docs.ultralytics.com/models/yolo26/
YOLO26 支持的计算机视觉任务包括:
- 图像分类:对整张图像进行分析,并归类到指定类别,帮助系统理解场景整体语义。
- 目标检测:在图像或视频中定位并识别多个目标。
- 实例分割:能以像素级精度勾勒单个物体轮廓。
- 姿态估计:识别关键点并估计人体或其他对象的姿态。
- 旋转框(OBB)检测:支持不同角度目标检测,适用于航拍和卫星影像。
- 目标跟踪:结合 Ultralytics Python 包,可在视频流中持续跟踪目标。
所有任务在同一框架下支持训练、验证、推理与模型导出。
Ultralytics YOLO26 的关键创新
Ultralytics YOLO26 引入了多项核心创新,全面提升了推理速度、训练稳定性和部署便捷性,主要包括:
- 移除分布焦点损失(DFL):删除了 DFL 模块,简化了边界框预测过程,提升了硬件兼容性,让模型更易于导出并在边缘设备和低功耗硬件上运行。
- 端到端无 NMS 推理:YOLO26 原生支持端到端推理,可直接输出最终预测结果,无需依赖非极大值抑制(NMS),减少了推理延迟和部署复杂度。
- 渐进式损失平衡(ProgLoss)+ 小目标感知标签分配(STAL):这些优化的损失策略稳定了训练过程,提升了检测精度,尤其针对难以检测的小目标。
- MuSGD 优化器:采用全新混合优化器,融合了 SGD 与 Muon 的优化方法,模型训练更加稳定。
- CPU 推理速度提升高达 43% :专为边缘计算优化,YOLO26 的 CPU 推理速度提升高达 43%,可在边缘设备上实现实时性能。
移除分布焦点损失(DFL),简化预测流程
早期 YOLO 模型在训练过程中使用分布焦点损失(DFL)来提升边界框精度。尽管这一方法有效,但 DFL 增加了模型复杂度,且对回归范围设置了固定限制,给模型导出和部署带来挑战,尤其在边缘设备和低功耗硬件上表现更为明显。
YOLO26 完全移除了 DFL 模块。这一改动消除了早期模型中固定的边界框回归限制,提升了检测超大物体时的可靠性和准确性。
通过简化边界框预测流程,YOLO26 更易于导出,且能在各类边缘设备和低功耗硬件上稳定运行。
端到端无 NMS 推理
传统目标检测流程依赖非极大值抑制(NMS)作为后处理步骤,用于过滤重叠预测结果。尽管 NMS 效果显著,但它会增加延迟和复杂度,且在多运行时环境和不同硬件目标上部署时容易出现不稳定问题。
YOLO26 引入原生端到端推理模式,模型可直接输出最终预测结果,无需将 NMS 作为独立的后处理步骤。重复预测的过滤的操作在网络内部完成。
移除 NMS 不仅降低了延迟,简化了部署流程,还减少了集成错误的风险,使 YOLO26 特别适合实时部署和边缘部署场景。
渐进式损失平衡(ProgLoss)+ 小目标感知标签分配(STAL),提升识别能力
训练相关的关键特性是引入了渐进式损失平衡(ProgLoss)和小目标感知标签分配(STAL)。这些优化的损失函数有助于稳定训练过程,提升检测精度。
ProgLoss 让模型在训练过程中学习更稳定,减少了训练波动,使模型收敛更平稳。同时,STAL 则针对小目标进行了优化,改善模型在视觉信息有限情况下的学习效果。
ProgLoss 和 STAL 的结合实现了更可靠的检测效果,尤其在小目标识别方面有显著提升。这一点对于物联网(IoT)、机器人技术和航空影像等边缘应用至关重要,因为在这些场景中,物体往往体积小、距离远或部分可见。
MuSGD 优化器,实现更稳定的训练
YOLO26 采用了一种新的优化器 MuSGD,用于提升训练的稳定性和效率。MuSGD 将传统随机梯度下降(SGD)的优势,与源自大语言模型训练的 Muon 类优化思想相结合。
SGD 在计算机视觉领域长期被证明具有良好的泛化能力,而近年的大模型训练经验也表明,适当引入新的优化策略可以进一步提升稳定性和效率。MuSGD 将这些理念引入了计算机视觉领域。
受 Moonshot AI 的 Kimi K2 训练经验启发,MuSGD 融入了有助于模型更平稳收敛的优化策略。这使得 YOLO26 能够更快地达到出色性能,同时减少训练不稳定性,尤其在更大规模或更复杂的训练场景中效果显著。
MuSGD 让 YOLO26 在不同模型尺寸下的训练都更具可预测性,既提升了性能,又增强了训练稳定性。
CPU 推理速度提升高达 43%
随着 Vision AI 不断向数据产生端靠近,边缘性能的重要性持续提升。YOLO26 针对边缘计算场景进行了深度优化,在无 GPU 的条件下,CPU 推理速度最高提升可达 43%。
这一能力使实时视觉系统能够直接运行在摄像头、机器人和嵌入式硬件上,满足低延迟、高可靠性和成本受限的实际需求。
对视觉任务进一步优化
除了提升目标检测精度的架构改进外,YOLO26 还包含针对特定任务的优化,旨在全面提升各类计算机视觉任务的性能。
- 实例分割:YOLO26 使用语义分割损失改进模型的训练学习过程,从而生成更准确、更一致的实例掩码。升级后的原型模块支持利用多尺度信息,使模型在复杂场景中也能有效处理不同尺寸的物体。
- 姿态估计:集成 Residual Log-Likelihood Estimation(RLE),更好地建模关键点预测的不确定性,同时优化解码流程,实现更高精度与实时性。
- 旋转边界框检测:新增角度损失函数,帮助模型更准确地学习物体旋转角度,尤其适用于方向模糊的方形物体。优化后的 OBB 解码过程减少了旋转边界附近角度预测的突变,实现了更稳定、一致的方向估计。
点击即可跳转模型合集:https://www.modelscope.cn/organization/Ultralytics