超越YOLOv10/11、RT-DETRv2/3!中科大D-FINE重新定义边界框回归任务

简介: 中科大研究团队提出了一种新型目标检测器D-FINE,通过重新定义边界框回归任务,实现超越YOLOv10/11和RT-DETRv2/3的性能。D-FINE采用细粒度分布细化(FDR)和全局最优定位自蒸馏(GO-LSD)技术,显著提高了定位精度和检测速度。在COCO数据集上,D-FINE-L/X分别达到54.0%/55.8%的AP,并在NVIDIA T4 GPU上以124/78 FPS运行。

在计算机视觉领域,目标检测一直是研究的热点。近年来,基于深度学习的目标检测算法取得了显著的进展,其中YOLO系列和DETR系列算法尤为突出。然而,这些算法在边界框回归任务上仍存在一定的局限性。为了解决这一问题,中科大的研究团队提出了一种名为D-FINE的新型目标检测器,该检测器通过重新定义边界框回归任务,实现了超越YOLOv10/11、RT-DETRv2/3的性能。

D-FINE的核心思想是将边界框回归任务从预测固定坐标转变为迭代地细化概率分布。具体而言,D-FINE由两个关键组件组成:细粒度分布细化(FDR)和全局最优定位自蒸馏(GO-LSD)。

FDR通过将回归过程从预测固定坐标转变为迭代地细化概率分布,提供了一种细粒度的中间表示,从而显著提高了定位精度。与传统的边界框回归方法相比,FDR能够更准确地捕捉目标的位置和形状信息,从而提高检测性能。

GO-LSD是一种双向优化策略,它通过自蒸馏将细化后的分布中的定位知识传递给较浅的层,同时简化了较深层的残差预测任务。这种双向优化策略不仅提高了模型的定位能力,还减少了模型的计算复杂度,从而实现了速度和精度的平衡。

为了验证D-FINE的性能,研究团队在COCO数据集上进行了实验。实验结果表明,D-FINE-L/X在COCO数据集上分别达到了54.0%/55.8%的AP,并在NVIDIA T4 GPU上以124/78 FPS的速度运行。当在Objects365数据集上进行预训练时,D-FINE-L/X的性能进一步提升,分别达到了57.1%/59.3%的AP,超越了所有现有的实时检测器。

此外,研究团队还对D-FINE在不同DETR模型上的性能进行了评估。结果表明,D-FINE能够显著提高各种DETR模型的性能,最高可提升5.3%的AP,且额外参数和训练成本几乎可以忽略不计。

D-FINE的优势主要体现在以下几个方面:

  1. 定位精度高:通过重新定义边界框回归任务,D-FINE能够更准确地捕捉目标的位置和形状信息,从而提高检测性能。
  2. 速度与精度平衡:通过引入轻量级优化和双向优化策略,D-FINE在保持高精度的同时,实现了较快的检测速度。
  3. 通用性强:D-FINE能够显著提高各种DETR模型的性能,具有广泛的应用前景。

然而,D-FINE也面临一些挑战:

  1. 计算复杂度:尽管D-FINE通过轻量级优化和双向优化策略减少了计算复杂度,但在实际应用中,仍需要考虑计算资源的限制。
  2. 数据依赖性:D-FINE的性能高度依赖于训练数据的质量和数量。在实际应用中,如何获取高质量的训练数据是一个重要的问题。
  3. 模型泛化能力:尽管D-FINE在COCO和Objects365等数据集上表现出色,但在其他数据集上的性能仍有待验证。

论文地址: https://arxiv.org/abs/2410.13842

目录
相关文章
|
8月前
|
PyTorch 算法框架/工具
【IOU实验】即插即用!对bubbliiiing的yolo系列代码替换iou计算函数做比对实验(G_C_D_S-IOU)
【IOU实验】即插即用!对bubbliiiing的yolo系列代码替换iou计算函数做比对实验(G_C_D_S-IOU)
125 0
【IOU实验】即插即用!对bubbliiiing的yolo系列代码替换iou计算函数做比对实验(G_C_D_S-IOU)
|
8月前
|
算法 固态存储 计算机视觉
Focaler-IoU开源 | 高于SIoU+关注困难样本,让YOLOv5再涨1.9%,YOLOv8再涨点0.3%
Focaler-IoU开源 | 高于SIoU+关注困难样本,让YOLOv5再涨1.9%,YOLOv8再涨点0.3%
269 0
|
7月前
|
机器学习/深度学习 算法 数据可视化
【从零开始学习深度学习】46. 目标检测中锚框的概念、计算方法、样本锚框标注方式及如何选取预测边界框
【从零开始学习深度学习】46. 目标检测中锚框的概念、计算方法、样本锚框标注方式及如何选取预测边界框
|
5月前
|
SQL 自然语言处理 算法
预训练模型STAR问题之计算伪OOD样本的软标签的问题如何解决
预训练模型STAR问题之计算伪OOD样本的软标签的问题如何解决
|
8月前
|
计算机视觉
【YOLOv8改进】Inner-IoU: 基于辅助边框的IoU损失(论文笔记+引入代码)
YOLO目标检测专栏探讨了IoU损失的局限性,并提出创新改进。分析发现,不同尺度的辅助边框对高IoU和低IoU样本的回归有不同影响。因此,提出了Inner-IoU Loss,利用尺度因子ratio控制辅助边框大小以优化损失计算。实验验证了该方法能提升检测效果,增强泛化能力。创新点包括根据样本特性选择辅助边框尺度和Inner-IoU Loss的设计。更多详情见YOLO目标检测创新改进与实战案例专栏。
|
8月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进】MPDIoU:有效和准确的边界框损失回归函数 (论文笔记+引入代码)
YOLO目标检测专栏介绍了YOLO的有效改进和实战案例,包括卷积、主干网络、注意力机制和检测头的创新。提出了一种新的边界框回归损失函数MPDIoU,它基于最小点距离,能更好地处理不同宽高比的预测框,包含重叠、中心点距离和尺寸偏差的全面考虑。MPDIoU损失函数在YOLACT和YOLOv7等模型上的实验显示了优于现有损失函数的性能。此外,还介绍了WIoU_Scale类用于计算加权IoU,以及bbox_iou函数实现不同IoU变体的计算。详细实现和配置可在相应链接中查阅。
|
8月前
|
传感器 编解码 算法
Anchor-free应用一览:目标检测、实例分割、多目标跟踪
Anchor-free应用一览:目标检测、实例分割、多目标跟踪
168 0
|
8月前
|
机器学习/深度学习 编解码 数据可视化
【论文精选】TPAMI2020 - PFENet_先验引导的特征富集网络_小样本语义分割
【论文精选】TPAMI2020 - PFENet_先验引导的特征富集网络_小样本语义分割
|
8月前
|
机器学习/深度学习 数据挖掘 计算机视觉
【论文速递】WACV2022 - 从边界框标注学习小样本分割
【论文速递】WACV2022 - 从边界框标注学习小样本分割
|
8月前
|
机器学习/深度学习 算法 计算机视觉
【论文速递】CVPR2021 - 基于自引导和交叉引导的小样本分割算法
【论文速递】CVPR2021 - 基于自引导和交叉引导的小样本分割算法
76 0