YOLO超快时代终结了 | RT-DETR用114FPS实现54.8AP,远超YOLOv8(一)

简介: YOLO超快时代终结了 | RT-DETR用114FPS实现54.8AP,远超YOLOv8(一)

最近,基于Transformer的端到端检测器(DETR)已经取得了显著的性能。然而,DETR的高计算成本问题尚未得到有效解决,这限制了它们的实际应用,并使它们无法充分利用无后处理的好处,如非最大值抑制(NMS)。

本文首先分析了现代实时目标检测器中NMS对推理速度的影响,并建立了端到端的速度基准。为了避免NMS引起的推理延迟,作者提出了一种实时检测Transformer(RT-DETR),这是第一个实时端到端目标检测器。

具体而言,设计了一种高效的混合编码器,通过解耦尺度内交互和跨尺度融合来高效处理多尺度特征,并提出了IoU感知的查询选择,以提高目标查询的初始化。

此外,本文提出的检测器支持通过使用不同的解码器层来灵活调整推理速度,而不需要重新训练,这有助于实时目标检测器的实际应用。

RTDETR-L在COCO val2017上实现了53.0%的AP,在T4 GPU上实现了114 FPS,而RT-DETR-X实现了54.8%的AP和74 FPS,在速度和精度方面都优于相同规模的所有YOLO检测器。

此外,RTDETR-R50实现了53.1%的AP和108 FPS,在精度上比DINO-Deformable-DETR-R50高出2.2%的AP,在FPS上高出约21倍。


1、简介


目标检测是一项基本的视觉任务,涉及识别和定位图像中的目标。现代目标检测器有两种典型的体系结构:

  • 基于CNN
  • 基于Transformer

在过去的几年里,人们对基于CNN的目标检测器进行了广泛的研究。这些检测器的架构已经从最初的两阶段发展到一阶段,并且出现了两种检测范式,Anchor-Base和Anchor-Free。这些研究在检测速度和准确性方面都取得了重大进展。

基于Transformer的目标检测器(DETR)由于消除了各种手工设计的组件,如非最大值抑制(NMS),自提出以来,受到了学术界的广泛关注。该架构极大地简化了目标检测的流水线,实现了端到端的目标检测。

实时目标检测是一个重要的研究领域,具有广泛的应用,如目标跟踪、视频监控、自动驾驶等。现有的实时检测器通常采用基于CNN的架构,在检测速度和准确性方面实现了合理的权衡。然而,这些实时检测器通常需要NMS进行后处理,这通常难以优化并且不够鲁棒,导致检测器的推理速度延迟。

最近,由于研究人员在加速训练收敛和降低优化难度方面的努力,基于Transformer的检测器取得了显著的性能。然而,DETR的高计算成本问题尚未得到有效解决,这限制了DETR的实际应用,并导致无法充分利用其优势。这意味着,尽管简化了目标检测流水线,但由于模型本身的计算成本高,很难实现实时目标检测。

上述问题自然启发考虑是否可以将DETR扩展到实时场景,充分利用端到端检测器来避免NMS对实时检测器造成的延迟。为了实现上述目标,作者重新思考了DETR,并对其关键组件进行了详细的分析和实验,以减少不必要的计算冗余。

具体而言,作者发现,尽管多尺度特征的引入有利于加速训练收敛和提高性能,但它也会导致编码器中序列长度的显著增加。因此,由于计算成本高,Transformer编码器成为模型的计算瓶颈。为了实现实时目标检测,设计了一种高效的混合编码器来取代原来的Transformer编码器。通过解耦多尺度特征的尺度内交互和尺度间融合,编码器可以有效地处理不同尺度的特征。

此外,先前的工作表明,解码器的目标查询初始化方案对检测性能至关重要。为了进一步提高性能,作者提出了IoU-Aware的查询选择,它通过在训练期间提供IoU约束来向解码器提供更高质量的初始目标查询。

此外,作者提出的检测器支持通过使用不同的解码器层来灵活调整推理速度,而不需要重新训练,这得益于DETR架构中解码器的设计,并有助于实时检测器的实际应用。

本文提出了一种实时检测Transformer(RT-DETR),这是第一个实时基于Transformer的端到端目标检测器。RT-DETR不仅在精度和速度上优于目前最先进的实时检测器,而且不需要后处理,因此检测器的推理速度不会延迟并保持稳定,充分利用了端到端检测流水线的优势。

RT-DETR-L在COCO val2017上实现了53.0%的AP,在NVIDIA Tesla T4 GPU上实现了114 FPS,而RT-DETR-X实现了54.8%的AP和74 FPS,在速度和精度方面都优于相同规模的所有YOLO检测器。因此,RT-DETR成为了一种用于实时目标检测的新的SOTA,如图1所示。

image.png

此外,提出的RT-DETR-R50实现了53.1%的AP和108 FPS,而RT-DETR-R101实现了54.3%的AP和74 FPS。其中,RT-DETR50在准确度上优于DINO-Deformable-DETR-R50 2.2%的AP(53.1%的AP对50.9%的AP),在FPS(108 FPS对5 FPS)上优于DINO-Deformable-DETR-R5约21倍。

本文的主要贡献总结如下:

  1. 提出了第一个实时端到端目标检测器,它不仅在准确性和速度上优于当前的实时检测器,而且不需要后处理,因此推理速度不延迟,保持稳定;
  2. 详细分析了NMS对实时检测器的影响,并从后处理的角度得出了关于基于CNN的实时检测器的结论;
  3. 提出的IoU-Aware查询选择在我们的模型中显示出优异的性能改进,这为改进目标查询的初始化方案提供了新的线索;
  4. 本文的工作为端到端检测器的实时实现提供了一个可行的解决方案,并且所提出的检测器可以通过使用不同的解码器层来灵活地调整模型大小和推理速度,而不需要重新训练。

2、相关方法


2.1、实时目标检测器

经过多年的不断发展,YOLO系列已成为实时目标检测器的代名词,大致可分为两类:

  • Anchor-Base
  • Anchor-Free

从这些检测器的性能来看,Anchor不再是制约YOLO发展的主要因素。然而,上述检测器产生了许多冗余的边界框,需要在后处理阶段使用NMS来过滤掉它们。

不幸的是,这会导致性能瓶颈,NMS的超参数对检测器的准确性和速度有很大影响。作者认为这与实时目标检测器的设计理念不兼容。

2.2、端到端目标检测器

端到端目标检测器以其流线型管道而闻名。Carion等人首先提出了基于Transformer的端到端目标检测器,称为DETR(DEtection Transformer)。它因其独特的特点而备受关注。特别地,DETR消除了传统检测流水线中手工设计的Anchor和NMS组件。相反,它采用二分匹配,并直接预测一对一的对象集。通过采用这种策略,DETR简化了检测管道,缓解了NMS带来的性能瓶颈。

尽管DETR具有明显的优势,但它存在两个主要问题:

  • 训练收敛缓慢
  • 查询难以优化

已经提出了许多DETR变体来解决这些问题。具体而言,Deformable DETR通过提高注意力机制的效率,加速了多尺度特征的训练收敛。 Conditional DETR和Anchor DETR降低了查询的优化难度。DAB-DETR引入4D参考点,并逐层迭代优化预测框。DN-DETR通过引入查询去噪来加速训练收敛。DINO以之前的作品为基础,取得了最先进的成果。

尽管正在不断改进DETR的组件,但本文的目标不仅是进一步提高模型的性能,而且是创建一个实时的端到端目标检测器。

2.3、目标检测的多尺度特征

现代目标检测器已经证明了利用多尺度特征来提高性能的重要性,尤其是对于小物体。FPN引入了一种融合相邻尺度特征的特征金字塔网络。随后的工作扩展和增强了这种结构,并被广泛用于实时目标检测器。Zhu等人首先在DETR中引入了多尺度特征,提高了性能和收敛速度,但这也导致了DETR计算成本的显著增加。

尽管Deformable Attention制在一定程度上减轻了计算成本,但多尺度特征的结合仍然会导致较高的计算负担。为了解决这个问题,一些工作试图设计计算高效的DETR。Effificient DETR通过初始化具有密集先验的目标查询来减少编码器和解码器层的数量。Sparse DETR选择性地更新期望被解码器引用的编码器token,从而减少计算开销。Lite DETR通过以交错方式降低低级别特征的更新频率来提高编码器的效率。尽管这些研究降低了DETR的计算成本,但这些工作的目标并不是将DETR作为一种实时检测器来推广。


3、检测器端到端速度


3.1、分析NMS

NMS是检测中广泛采用的后处理算法,用于消除检测器输出的重叠预测框。NMS中需要2个超参数:得分阈值和IoU阈值。

特别地,分数低于分数阈值的预测框被直接过滤掉,并且每当2个预测框的IoU超过IoU阈值时,分数较低的框将被丢弃。重复执行此过程,直到每个类别的所有框都已处理完毕。因此,NMS的执行时间主要取决于输入预测框的数量和两个超参数。

为了验证这一观点,作者利用YOLOv5和YOLOv8进行实验。首先计算在输出框被相同输入图像的不同得分阈值滤波后剩余的预测框的数量。采样了0.001到0.25的一些分数作为阈值,对两个检测器的剩余预测框进行计数,并将其绘制成直方图,直观地反映了NMS易受其超参数的影响,如图2所示。

此外,以YOLOv8为例,评估了不同NMS超参数下COCO val2017的模型准确性和NMS操作的执行时间。

注意,在实验中采用的NMS后处理操作是指TensorRT efficientNMSPlugin,它涉及多个CUDA内核,包括EfficientNMSFilter、RadixSort、EfficientNMS等,作者只报告了EfficientNMS内核的执行时间。在T4 GPU上测试了速度,上述实验中的输入图像和预处理是一致的。使用的超参数和相应的结果如表1所示。

3.2、端到端速度基准

为了能够公平地比较各种实时检测器的端到端推理速度,作者建立了一个端到端速度测试基准。考虑到NMS的执行时间可能会受到输入图像的影响,有必要选择一个基准数据集,并计算多个图像的平均执行时间。该基准采用COCO val2017作为默认数据集,为需要后处理的实时检测器添加了TensorRT的NMS后处理插件。

具体来说,根据基准数据集上相应精度的超参数测试检测器的平均推理时间,不包括IO和内存复制操作。利用该基准测试T4 GPU上基于锚的检测器YOLOv5和YOLOv7以及Anchor-Free检测器PP-YOLOE、YOLOv6和YOLOv8的端到端速度。

测试结果如表2所示。

image.png

根据结果得出结论,对于需要NMS后处理的实时检测器,Anchor-Free检测器在同等精度上优于Anchor-Base的检测器,因为前者的后处理时间明显少于后者,这在以前的工作中被忽略了。这种现象的原因是,Anchor-Base的检测器比Anchor-Free的检测器产生更多的预测框(在测试的检测器中是3倍多)。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
机器学习/深度学习 计算机视觉 网络架构
改进YOLOv8:添加CBAM注意力机制(涨点明显)
改进YOLOv8:添加CBAM注意力机制(涨点明显)
7597 1
|
人工智能 算法 Java
AI:互联网程序设计竞赛之蓝桥杯大赛的简介、奖项设置、大赛内容以及蓝桥杯与ACM(ICPC)的四个维度对比之详细攻略
AI:互联网程序设计竞赛之蓝桥杯大赛的简介、奖项设置、大赛内容以及蓝桥杯与ACM(ICPC)的四个维度对比之详细攻略
AI:互联网程序设计竞赛之蓝桥杯大赛的简介、奖项设置、大赛内容以及蓝桥杯与ACM(ICPC)的四个维度对比之详细攻略
|
9月前
|
机器学习/深度学习
RT-DETR改进策略【损失函数篇】| 替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU6
RT-DETR改进策略【损失函数篇】| 替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU6
421 2
RT-DETR改进策略【损失函数篇】| 替换激活函数为Mish、PReLU、Hardswish、LeakyReLU、ReLU6
|
9月前
|
机器学习/深度学习 计算机视觉 网络架构
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
695 12
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
|
9月前
|
机器学习/深度学习 数据可视化 算法
RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
645 5
|
机器学习/深度学习 数据可视化 测试技术
YOLO11实战:新颖的多尺度卷积注意力(MSCA)加在网络不同位置的涨点情况 | 创新点如何在自己数据集上高效涨点,解决不涨点掉点等问题
本文探讨了创新点在自定义数据集上表现不稳定的问题,分析了不同数据集和网络位置对创新效果的影响。通过在YOLO11的不同位置引入MSCAAttention模块,展示了三种不同的改进方案及其效果。实验结果显示,改进方案在mAP50指标上分别提升了至0.788、0.792和0.775。建议多尝试不同配置,找到最适合特定数据集的解决方案。
3091 0
|
9月前
|
机器学习/深度学习 编解码 计算机视觉
YOLOv11改进策略【卷积层】| ECCV-2024 小波卷积WTConv 增大感受野,降低参数量计算量,独家创新助力涨点
YOLOv11改进策略【卷积层】| ECCV-2024 小波卷积WTConv 增大感受野,降低参数量计算量,独家创新助力涨点
924 0
YOLOv11改进策略【卷积层】| ECCV-2024 小波卷积WTConv 增大感受野,降低参数量计算量,独家创新助力涨点
|
机器学习/深度学习 编解码 监控
目标检测实战(六): 使用YOLOv8完成对图像的目标检测任务(从数据准备到训练测试部署的完整流程)
这篇文章详细介绍了如何使用YOLOv8进行目标检测任务,包括环境搭建、数据准备、模型训练、验证测试以及模型转换等完整流程。
20833 59
目标检测实战(六): 使用YOLOv8完成对图像的目标检测任务(从数据准备到训练测试部署的完整流程)
|
机器学习/深度学习 编解码 计算机视觉
【YOLOv10改进-注意力机制】Polarized Self-Attention: 极化自注意力,双重注意力机制
YOLOv10引入了极化自注意(PSA)块,结合通道和空间注意力,降低信息损失。PSA通过极化过滤保持高分辨率,并用增强处理非线性分布。在2D姿态估计和分割任务上提升1-2点精度,相比基线提升2-4点。代码示例展示了PSA模块如何集成到模型中。更多配置详情见相关链接。
|
机器学习/深度学习 人工智能 文字识别
ultralytics YOLO11 全新发布!(原理介绍+代码详见+结构框图)
本文详细介绍YOLO11,包括其全新特性、代码实现及结构框图,并提供如何使用NEU-DET数据集进行训练的指南。YOLO11在前代基础上引入了新功能和改进,如C3k2、C2PSA模块和更轻量级的分类检测头,显著提升了模型的性能和灵活性。文中还对比了YOLO11与YOLOv8的区别,并展示了训练过程和结果的可视化
19865 0