超越YOLOv10/11、RT-DETRv2/3!中科大D-FINE重新定义边界框回归任务

简介: 中科大研究团队提出了一种新型目标检测器D-FINE,通过重新定义边界框回归任务,实现超越YOLOv10/11和RT-DETRv2/3的性能。D-FINE采用细粒度分布细化(FDR)和全局最优定位自蒸馏(GO-LSD)技术,显著提高了定位精度和检测速度。在COCO数据集上,D-FINE-L/X分别达到54.0%/55.8%的AP,并在NVIDIA T4 GPU上以124/78 FPS运行。

在计算机视觉领域,目标检测一直是研究的热点。近年来,基于深度学习的目标检测算法取得了显著的进展,其中YOLO系列和DETR系列算法尤为突出。然而,这些算法在边界框回归任务上仍存在一定的局限性。为了解决这一问题,中科大的研究团队提出了一种名为D-FINE的新型目标检测器,该检测器通过重新定义边界框回归任务,实现了超越YOLOv10/11、RT-DETRv2/3的性能。

D-FINE的核心思想是将边界框回归任务从预测固定坐标转变为迭代地细化概率分布。具体而言,D-FINE由两个关键组件组成:细粒度分布细化(FDR)和全局最优定位自蒸馏(GO-LSD)。

FDR通过将回归过程从预测固定坐标转变为迭代地细化概率分布,提供了一种细粒度的中间表示,从而显著提高了定位精度。与传统的边界框回归方法相比,FDR能够更准确地捕捉目标的位置和形状信息,从而提高检测性能。

GO-LSD是一种双向优化策略,它通过自蒸馏将细化后的分布中的定位知识传递给较浅的层,同时简化了较深层的残差预测任务。这种双向优化策略不仅提高了模型的定位能力,还减少了模型的计算复杂度,从而实现了速度和精度的平衡。

为了验证D-FINE的性能,研究团队在COCO数据集上进行了实验。实验结果表明,D-FINE-L/X在COCO数据集上分别达到了54.0%/55.8%的AP,并在NVIDIA T4 GPU上以124/78 FPS的速度运行。当在Objects365数据集上进行预训练时,D-FINE-L/X的性能进一步提升,分别达到了57.1%/59.3%的AP,超越了所有现有的实时检测器。

此外,研究团队还对D-FINE在不同DETR模型上的性能进行了评估。结果表明,D-FINE能够显著提高各种DETR模型的性能,最高可提升5.3%的AP,且额外参数和训练成本几乎可以忽略不计。

D-FINE的优势主要体现在以下几个方面:

  1. 定位精度高:通过重新定义边界框回归任务,D-FINE能够更准确地捕捉目标的位置和形状信息,从而提高检测性能。
  2. 速度与精度平衡:通过引入轻量级优化和双向优化策略,D-FINE在保持高精度的同时,实现了较快的检测速度。
  3. 通用性强:D-FINE能够显著提高各种DETR模型的性能,具有广泛的应用前景。

然而,D-FINE也面临一些挑战:

  1. 计算复杂度:尽管D-FINE通过轻量级优化和双向优化策略减少了计算复杂度,但在实际应用中,仍需要考虑计算资源的限制。
  2. 数据依赖性:D-FINE的性能高度依赖于训练数据的质量和数量。在实际应用中,如何获取高质量的训练数据是一个重要的问题。
  3. 模型泛化能力:尽管D-FINE在COCO和Objects365等数据集上表现出色,但在其他数据集上的性能仍有待验证。

论文地址: https://arxiv.org/abs/2410.13842

目录
打赏
0
13
13
2
396
分享
相关文章
Kiss3DGen:基于图像扩散模型的3D资产生成框架
Kiss3DGen是一个创新的3D资产生成框架,通过重新利用预训练的2D图像扩散模型,高效生成、编辑和增强3D对象,支持文本到3D、图像到3D等多种生成任务。
71 5
YOLOv11改进策略【YOLO和Mamba】| 替换骨干 Mamba-YOLOv11-L !!! 最新的发文热点
YOLOv11改进策略【YOLO和Mamba】| 替换骨干 Mamba-YOLOv11-L !!! 最新的发文热点
55 10
YOLOv11改进策略【YOLO和Mamba】| 替换骨干 Mamba-YOLOv11-L !!! 最新的发文热点
YOLOv11改进策略【YOLO和Mamba】| 替换骨干 Mamba-YOLOv11-T !!! 最新的发文热点
YOLOv11改进策略【YOLO和Mamba】| 替换骨干 Mamba-YOLOv11-T !!! 最新的发文热点
134 7
YOLOv11改进策略【YOLO和Mamba】| 替换骨干 Mamba-YOLOv11-T !!! 最新的发文热点
YOLOv11改进策略【YOLO和Mamba】| 替换骨干 Mamba-YOLOv11-B !!! 最新的发文热点
YOLOv11改进策略【YOLO和Mamba】| 替换骨干 Mamba-YOLOv11-B !!! 最新的发文热点
145 9
RT-DETR改进策略【损失函数篇】| 利用MPDIoU,加强边界框回归的准确性
RT-DETR改进策略【损失函数篇】| 利用MPDIoU,加强边界框回归的准确性
70 2
YOLOv8改进 | 2023 | 给YOLOv8换个RT-DETR的检测头(重塑目标检测前沿技术)
YOLOv8改进 | 2023 | 给YOLOv8换个RT-DETR的检测头(重塑目标检测前沿技术)
641 0
【YOLOv8改进】MPDIoU:有效和准确的边界框损失回归函数 (论文笔记+引入代码)
YOLO目标检测专栏介绍了YOLO的有效改进和实战案例,包括卷积、主干网络、注意力机制和检测头的创新。提出了一种新的边界框回归损失函数MPDIoU,它基于最小点距离,能更好地处理不同宽高比的预测框,包含重叠、中心点距离和尺寸偏差的全面考虑。MPDIoU损失函数在YOLACT和YOLOv7等模型上的实验显示了优于现有损失函数的性能。此外,还介绍了WIoU_Scale类用于计算加权IoU,以及bbox_iou函数实现不同IoU变体的计算。详细实现和配置可在相应链接中查阅。
|
10月前
|
论文介绍:Panoptic-DeepLab——一种简单、强大且快速的自下而上全景分割基线
【5月更文挑战第22天】Panoptic-DeepLab是UIUC和Google Research合作开发的一种高效全景分割基线,采用双ASPP和双解码器设计,优化语义和实例分割。在Cityscapes、Mapillary Vistas和COCO数据集上表现优秀,同时保持接近实时的速度。其简洁设计仅需三个损失函数,具有高通用性和可扩展性。然而,仍面临尺度变化、实例分割等挑战,需要进一步优化。[链接](https://arxiv.org/abs/1911.10194)
183 0
基于EasyCV复现ViTDet:单层特征超越FPN
ViTDet其实是恺明团队MAE和ViT-based Mask R-CNN两个工作的延续。MAE提出了ViT的无监督训练方法,而ViT-based Mask R-CNN给出了用ViT作为backbone的Mask R-CNN的训练技巧,并证明了MAE预训练对下游检测任务的重要性。而ViTDet进一步改进了一些设计,证明了ViT作为backone的检测模型可以匹敌基于FPN的backbone(如SwinT和MViT)检测模型。
YOLOv5抛弃Anchor-Base方法 | YOLOv5u正式加入Anchor-Free大家庭
YOLOv5抛弃Anchor-Base方法 | YOLOv5u正式加入Anchor-Free大家庭
343 0