太强!AI没有落下的腾讯出YOLO-World爆款 | 开集目标检测速度提升20倍,效果不减

简介: 太强!AI没有落下的腾讯出YOLO-World爆款 | 开集目标检测速度提升20倍,效果不减

YOLO系列检测器已将自己确立为高效实用的工具。然而,它们依赖于预定义和训练的物体类别,这在开放场景中限制了它们的适用性。针对这一限制,作者引入了YOLO-World,这是一种创新的方法,通过视觉语言建模和在大型数据集上的预训练,将YOLO与开集检测能力相结合。具体来说,作者提出了一种新的可重参化的视觉语言路径聚合网络(RepVL-PAN)和区域文本对比损失,以促进视觉和语言信息之间的交互。作者的方法在以零样本方式检测广泛范围的物体时表现出色,且效率高。

在具有挑战性的LVIS数据集上,YOLO-World在V100上实现了35.4 AP和52.0 FPS,在准确性和速度上都超过了许多最先进的方法。此外,经过微调的YOLO-World在包括目标检测和开集实例分割在内的几个下游任务上取得了显著性能。

1 Introduction

目标检测一直是计算机视觉中一个长期而基础性的挑战,在图像理解、机器人学和自动驾驶车辆等领域有着众多的应用。随着深度神经网络的发展,大量的研究工作在目标检测领域取得了显著的突破。尽管这些方法取得了成功,但它们仍然有限,因为它们只处理具有固定词汇量的目标检测,例如,COCO 数据集中的80个类别。一旦定义并标记了目标类别,训练出的检测器只能检测那些特定的类别,这样就限制了在开放场景中的能力和适用性。

近期的工作探讨了普遍的视觉-语言模型,以解决开集检测问题,通过从语言编码器中提炼词汇知识,例如BERT。然而,这些基于蒸馏的方法受到很大限制,因为训练数据的稀缺性导致词汇多样性有限,例如OV-COCO仅包含48个基本类别。几种方法将目标检测训练重新定义为区域 Level 的视觉-语言预训练,并在大规模上训练开集目标检测器。然而,这些方法在现实场景中的检测仍然存在困难,主要受两方面影响:

  1. 计算负担重
  2. 边缘设备部署复杂

以前的工作已经证明了预训练大型检测器的性能潜力,而预训练小型检测器以赋予它们开放识别能力尚未被探索。

在本文中,作者提出了YOLO-World,旨在实现高效的开集目标检测,并探索大规模预训练方案,以将传统的YOLO检测器提升到一个新的开集世界。与先前方法相比,所提出的YOLO-World在具有高推理速度方面显著高效,易于部署到下游应用中。具体而言,YOLO-World遵循标准的YOLO架构,并利用预训练的CLIP文本编码器来编码输入文本。作者进一步提出了可重参化的视觉-语言路径聚合网络(RepVL-PAN),以更好地连接文本特征和图像特征,实现视觉语义表示。

在推理过程中,可以移除文本编码器,并将文本嵌入重新参数化为RepVL-PAN的权重,以实现高效部署。作者进一步研究了对YOLO检测器的大规模开集预训练方案,通过在大型数据集上对区域文本进行对比学习,将检测数据、定位数据以及图像文本数据统一为区域文本对。预训练的YOLO-World拥有丰富的区域文本对,展示了在大词汇检测方面的强大能力,且更多的数据训练将带来开集能力的更大提升。

此外,作者探索了一种“提示后检测”范式,以进一步改进实际场景中开集目标检测的效率。如图2所示,传统的目标检测器专注于固定词汇(封闭集)的检测,这些词汇是预定义且经过训练的类别。而之前的开集检测器则使用文本编码器对用户提示进行编码,以实现在线词汇的检测目标。值得注意的是,这些方法往往采用带有重型 Backbone 网络的大型检测器,例如Swin-L,以增加开集的容量。

相比之下,“提示后检测”范式(图2(c))首先对用户的提示进行编码以构建离线词汇,该词汇根据不同的需求而变化。然后,高效的检测器可以在不重新编码提示的情况下即时推理离线词汇。对于实际应用,一旦作者训练了检测器,即YOLO-World,作者可以预先编码提示或类别以构建离线词汇,然后无缝地将其整合到检测器中。

作者的主要贡献可以概括为三个方面:

  1. 作者介绍了YOLO-World,这是一个前沿的开集目标检测器,它具有高效率,适用于实际应用场景。
  2. 作者提出了一个可重新参数化的视觉-语言PAN模型,用以连接视觉和语言特征,并针对YOLO-World设计了一套开集区域文本对比预训练方案。
  3. YOLO-World在大规模数据集上的预训练展示了强大的零样本性能,在LVIS上达到35.4 AP的同时,还能保持52.0 FPS的速度。预训练的YOLO-World可以轻松适应下游任务,例如,开集实例分割和指代目标检测。此外,YOLO-World的预训练权重和代码将开源,以促进更多实际应用。

2 Related Works

Traditional Object Detection

当前的目标检测研究主要集中在固定词汇(封闭集)检测上,其中目标检测器是在预定义类别的数据集上进行训练的,例如COCO数据集和Objects365数据集,然后检测固定类别集合内的目标。

在过去的几十年中,传统的目标检测方法可以简单地分为三类,即基于区域的方法、基于像素的方法和基于 Query 的方法。基于区域的方法,例如Faster R-CNN,采用两阶段框架进行 Proposal 生成和RoI(感兴趣区域)分类和回归。基于像素的方法倾向于是一阶段检测器,它们在预定义的 Anchor 点或像素上进行分类和回归。DETR首次通过 Transformer探索目标检测,并启发了大量的基于 Query 的方法。在推理速度方面,Redmon等人提出了YOLOs,利用简单的卷积架构实现实时目标检测。

一些研究提出了各种YOLO的架构或设计,包括路径聚合网络,跨阶段部分网络和重参化,这些进一步提高了速度和准确性。与之前的YOLOs相比,本文中的YOLO-World旨在超越固定词汇检测目标,具有强大的泛化能力。

Open-Vocabulary Object Detection

开集目标检测(OVD)已成为现代目标检测的新趋势,它旨在检测超越预定义类别的目标。早期工作遵循标准的OVD设置,通过在基类上训练检测器并评估新(未知)类。然而,这种开集设置虽然可以评估检测器检测和识别新目标的能力,但由于在有限的 数据集和词汇上训练,它仍然局限于开放场景,并且在泛化到其他领域的能力上有所不足。

受到视觉-语言预训练的启发,近期的研究将开集目标检测公式化为图像-文本匹配,并利用大规模图像-文本数据大规模增加训练词汇。GLIP提出了一种基于短语定位的开集检测预训练框架,并在零样本设置中进行评估。Grounding DINO 将定位预训练融入到检测 Transformer 中,并通过跨模态融合。

几种方法通过区域文本匹配统一检测数据集和图像文本数据集,并使用大规模图像文本对预训练检测器,取得了有希望的性能和泛化能力。然而,这些方法通常使用如ATSS或DINO等重型检测器,并以Swin-L作为主干,导致了高计算需求和部署挑战。

相比之下,作者提出了YOLO-World,旨在实现高效的开集目标检测,具有实时推理和更容易的下游应用部署。与同样通过语言模型对齐探索开集检测的ZSD-YOLO[50]不同,YOLO-World引入了一个新的YOLO框架,并采用了一种有效的预训练策略,提升了开集的性能和泛化能力。

3 Method

Pre-training Formulation: Region-Text Pairs

传统的目标检测方法,包括YOLO系列,都是使用实例标注  进行训练,这些标注包括边界框  和类别标签 。在本文中,作者将实例标注重新定义为区域-文本对 ,其中  是区域  对应的文本。具体来说,文本  可以是类别名称、名词短语或目标描述。

此外,YOLO-World 同时采用图像  和文本 (一组名词)作为输入,输出预测的边界框  及其对应的目标嵌入 ()。

Model Architecture

所提出的YOLO-World的整体架构如图3所示,它包括一个YOLO检测器_、一个文本编码器以及一个_可重参化的视觉-语言路径聚合网络(RepVL-PAN)。在给定输入文本的情况下,YOLO-World中的文本编码器将文本编码为文本嵌入。YOLO检测器中的图像编码器从输入图像中提取多尺度特征。然后作者利用RepVL-PAN通过利用图像特征与文本嵌入之间的跨模态融合来增强文本和图像的表现。

YOLO检测器。YOLO-World主要是基于YOLOv8  开发的,它包括一个Darknet Backbone 作为图像编码器,一个路径聚合网络(PAN)用于多尺度特征金字塔,以及一个用于边界框回归和目标嵌入的 Head 。

文本编码器。给定文本 ,作者采用由CLIP预训练的Transformer文本编码器来提取相应的文本嵌入 ,其中  是名词的数量, 是嵌入维度。

与仅文本的语言编码器相比,CLIP文本编码器提供了更好的视觉语义能力,以连接视觉目标与文本。当输入文本是标题或参照表达式时,作者采用简单的n-gram算法来提取名词短语,然后将它们输入到文本编码器中。

文本对比头。遵循之前的工作,作者采用了两个解耦的头结构,每个头包含两个卷积层,用于回归边界框和目标嵌入,其中表示目标的数量。作者提出了一种文本对比头,通过以下方式获取目标-文本相似度:

其中 L2-Norm 是L2范数归一化, 是第  个文本嵌入。此外,作者添加了具有可学习缩放因子  和偏移因子  的仿射变换。L2范数和仿射变换对于稳定区域文本训练都是重要的。

在线词汇训练。在训练过程中,作者为每个包含4幅图像的马赛克样本构建一个在线词汇表 。具体来说,作者从马赛克图像中抽取所有涉及的积极名词,并从相应的数据集中随机抽取一些消极名词。每个马赛克样本的词汇表最多包含  个名词,默认情况下  设置为80。

在离线词汇推理阶段,作者提出了一种以“提示后检测”的策略,使用离线词汇以进一步提高效率。如图3所示,用户可以定义一系列自定义提示,这些提示可能包括标题或类别。然后作者使用文本编码器编码这些提示并获得离线词汇嵌入。离线词汇使作者可以避免对每个输入进行计算,并提供根据需要调整词汇的灵活性。

Re-parameterizable Vision-Language PAN

图4展示了所提出的RepVL-PAN的结构,该结构遵循PAN中的自顶向下和自底向上的路径,建立具有多尺度图像特征的特征金字塔。此外,作者提出了文本引导的CSPLayer(T-CSPLayer)和图像池化注意力(I-Pooling Attention),以进一步增强图像特征与文本特征之间的交互,这可以提高开集能力的视觉语义表示。在推理过程中,离线词汇嵌入可以重新参数化为卷积层或线性层的权重以进行部署。

文本引导的CSPLayer。如图4所示,在自顶向下或自底向上融合之后使用了跨阶段部分层(CSPLayer)。作者通过将文本引导结合到多尺度图像特征中,扩展了YOLOv8中的CSPLayer(也称为C2f),形成了文本引导的CSPLayer。具体来说,在给定文本嵌入和图像特征()的情况下,作者在最后一个暗瓶颈块之后采用了_max-sigmoid注意力_,通过以下方式将文本特征聚合到图像特征中:

在此时,更新的  与跨阶段特征进行拼接作为输出。这里的  表示sigmoid函数。

图像池化注意力。为了用图像感知信息增强文本嵌入,作者提出了图像池化注意力,通过聚合图像特征来更新文本嵌入。不是直接在图像特征上使用交叉注意力,作者利用多尺度特征上的最大池化来获得的区域,总共得到27个块标记。然后通过以下方式更新文本嵌入:

Pre-training Schemes

在本节中,作者介绍了在大规模检测、定位以及图像-文本数据集上对YOLO-World进行预训练的训练方案。

从区域文本对比损失中学习。给定马赛克样本和文本,YOLO-World输出个目标预测以及标注。作者遵循[19]并利用任务对齐的标签分配将预测与 GT 标注匹配,并为每个积极的预测分配一个文本索引作为分类标签。

基于这个词汇表,作者构建了区域文本对比损失,通过目标文本(区域文本)相似性与目标文本分配之间的交叉熵来处理区域文本对。此外,作者采用IoU损失和分布式Focal Loss进行边界框回归,总训练损失定义为:,其中是一个指示因子,当输入图像来自检测或定位数据时设置为1,当它来自图像文本数据时设置为0。考虑到图像文本数据集有噪声框,作者只对具有准确边界框的样本计算回归损失。

基于图像-文本数据的伪标签方法。作者并不是直接使用图像-文本对进行预训练,而是提出了一种自动标注方法来生成区域-文本对。具体来说,这种标注方法包含三个步骤

  1. 提取名词短语:首先使用n-gram算法从文本中提取名词短语;
  2. 伪标签:采用一个预训练的开集检测器,例如GLIP ,为每张图像给定名词短语的生成伪边界框,从而提供粗糙的区域-文本对;
  3. 过滤:使用预训练的CLIP 评估图像-文本对和区域-文本对的相关性,并过滤掉低相关性的伪标注和图像。作者进一步通过结合非极大值抑制(NMS)等方法来过滤冗余的边界框。
    建议读者参考附录以了解详细方法。通过上述方法,作者从CC3M中采样并标注了246k张图像,生成了821k个伪标注。

4 Experiments

在本节中,作者通过在大规模数据集上对所提出的YOLO-World进行预训练,展示了其有效性,并以零样本方式在LVIS基准和COCO基准上评估了YOLO-World(第4.2节)。作者还评估了YOLO-World在COCO、LVIS数据集上进行目标检测的微调性能。

Implementation Details

YOLO-World是基于MMYOLO工具箱和MMDetection工具箱开发的。遵循[19],作者为不同的延迟需求提供了YOLO-World的三个变体,例如小型(S)、中型(M)和大型(L)。作者采用了开源的CLIP文本编码器及其预训练权重来编码输入文本。除非特别指明,作者将所有模型的推理速度测量在单个NVIDIA V100 GPU上,且不使用额外的加速机制,例如FP16或TensorRT。

Pre-training

实验设置。在预训练阶段,作者采用了AdamW优化器,初始学习率为0.002,权重衰减为0.05。YOLO-World在32个NVIDIA V100 GPU上以总批处理大小512进行预训练,共100个周期。在预训练期间,作者遵循之前的工作,采用了颜色增强、随机仿射变换、随机翻转以及包含4张图片的马赛克数据进行数据增强。在预训练期间,文本编码器被冻结。

预训练数据。 为了预训练YOLO-World,作者主要采用了包括Objects365 (V1) ,GQA ,Flickr30k 在内的检测或定位数据集,具体如表格1所示。遵循[23]的做法,作者排除了GoldG(GQA和Flickr30k)中来自COCO数据集的图像。用于预训练的检测数据集的标注包括边界框和类别或名词短语。此外,作者还通过图像-文本对扩展了预训练数据,即CC3M,作者通过第3.4节讨论的伪标注方法对其中的246k图像进行了标注。

零样本评估。 在预训练之后,作者直接以零样本的方式在LVIS数据集上评估所提出的YOLO-World。LVIS数据集包含1203个目标类别,这比预训练检测数据集的类别多得多,可以衡量在大词汇检测上的性能。遵循先前的工作,作者主要在LVIS minival上进行评估,并报告了用于比较的Fixed AP。预测的最大数量设置为1000。

关于LVIS目标检测的主要结果。在表2中,作者以零样本的方式将提出的YOLO-World与最近的最先进的方法[20, 29, 52, 53, 55]在LVIS基准上进行比较。考虑到计算负担和模型参数,作者主要与基于较轻量级 Backbone 的方法进行比较,例如,Swin-T。

值得注意的是,YOLO-World在零样本性能和推理速度方面都超过了之前的最先进方法。与包含了更多数据的方法相比,如GLIP、GLIPv2和Grounding DINO(例如,Cap4M(CC3M+SBU [34])),仅用O365 & GolG进行预训练的YOLO-World即使模型参数较少,也获得了更好的性能。

与DetCLIP相比,YOLO-World在获得推理速度提升的同时,取得了可比较的性能(35.4 对比 34.4)。实验结果还表明,小型模型,例如,拥有13M参数的YOLO-World-S,可用于视觉-语言预训练,并获得强大的开集能力。

Ablation Experiments

作者提供了广泛的消融研究,从两个主要方面分析YOLO-World,即预训练和架构。除非另有指定,作者主要基于YOLO-World-L进行消融实验,并使用零样本评估在LVIS minival上预训练Objects365。

预训练数据。在表3中,作者评估了使用不同数据预训练YOLO-World的性能。与在Objects365上训练的 Baseline 相比,加入GQA可以在LVIS上显著提高性能,AP增益达到8.4。这种改进可以归因于GQA数据集提供的更丰富的文本信息,这可以增强模型识别大词汇目标的能力。

加入部分CC3M样本(完整数据集的8%)可以进一步带来0.5 AP的增益,罕见目标上提升1.3 AP。表3显示,添加更多数据可以有效提高在大词汇场景下的检测能力。此外,随着数据量的增加,性能持续提升,凸显了利用更大、更多样化的数据集进行训练的好处。

对RepVL-PAN的消融研究。 表4展示了所提出的YOLO-World中的RepVL-PAN对于零样本LVIS检测的有效性,包括文本引导的CSPLayers和图像池化注意力。

具体来说,作者采用了两种设置,即:(1)在O365上预训练;(2)在O365和GQA上预训练。与只包含类别标注的O365相比,GQA包含了丰富的文本信息,尤其是名词短语的形式。

如表4所示,所提出的RepVL-PAN在LVIS上比 Baseline (YOLOv8-PAN)提高了1.1个AP,并且在LVIS中难以检测和识别的稀有类别(AP)方面改进显著。此外,当YOLO-World使用GQA数据集进行预训练时,改进变得更加显著,实验表明,所提出的RepVL-PAN在丰富的文本信息下效果更佳。

文本编码器。在表5中,作者比较了使用不同文本编码器的性能,即BERT基础版和CLIP基础版。在预训练过程中,作者采用了两种设置,即冻结和微调,微调文本编码器的学习率是基本学习率的倍数。

正如表5所示,CLIP文本编码器比BERT获得了更好的结果(在LVIS中罕见类别的AP提高了10.1),这是用图像-文本对进行预训练的,具有更强的以视觉为中心的嵌入能力。在预训练过程中微调BERT带来了显著的提升(+3.7 AP),而微调CLIP则导致性能严重下降。作者将下降归因于在O365上进行微调可能会降低预训练CLIP的泛化能力,因为O365只包含365个类别,并且缺乏丰富的文本信息。

Fine-tuning YOLO-World

在本节中,作者进一步对YOLO-World进行微调,以在COCO数据集和LVIS数据集上进行闭集目标检测,以展示预训练的有效性。

实验设置。作者使用预训练权重来初始化YOLO-World以进行微调。所有模型都使用AdamW优化器微调80个周期,初始学习率设置为0.0002。此外,作者还以0.01的学习因子微调CLIP文本编码器。对于LVIS数据集,作者遵循之前的工作,在LVIS-base(常见和频繁)上微调YOLO-World,并在LVIS-novel(罕见)上进行评估。

COCO目标检测。作者在表6中比较了预训练的YOLO-World与先前的YOLO检测器。在将YOLO-World在COCO数据集上进行微调时,考虑到COCO数据集的词汇量较小,作者移除了所 Proposal 的RepVL-PAN以进一步加速。在表6中,很明显作者的方法在COCO数据集上可以取得相当不错的零样本性能,这表明YOLO-World具有很强的泛化能力。此外,与从头开始训练的先前方法相比,经过COCO train2017数据集微调后的YOLO-World展示了更高的性能。

LVIS目标检测。在表7中,作者评估了YOLO-World在标准LVIS数据集上的微调性能。首先,与在完整LVIS数据集上训练的oracle YOLOv8s相比,YOLO-World取得了显著的提升,尤其是对于较大模型,例如,YOLO-World-L比YOLOv8-L在7.2 AP和10.2 AP上有更好的表现。这些改进可以证明所提出的大词汇量检测预训练策略的有效性。此外,作为高效的单阶段检测器,YOLO-World在总体性能上超过了之前最先进的两阶段方法,而且无需额外的设计,例如,可学习的提示[7]或基于区域的对齐。

Open-Vocabulary Instance Segmentation

在本节中,作者进一步对YOLO-World进行微调,以在开集设置下分割目标,这可以称为开集实例分割(OVIS)。先前的方法已经通过在新目标上使用伪标记来探索OVIS。不同的是,考虑到YOLO-World具有强大的迁移和泛化能力,作者直接在一个带有掩膜标注的数据子集上微调YOLO-World,并在大词汇设置下评估分割性能。具体来说,作者在两种设置下对开集实例分割进行了基准测试:

在_COCO到LVIS_的设置中,作者在带有掩膜标注的COCO数据集(包括80个类别)上对YOLO-World进行微调,在这种情况下,模型需要从80个类别转移到1203个类别();

(2) 从LVIS-base到LVIS 设置中,作者在带有掩膜标注的LVIS-base(包括866个类别,常见且频繁)上对YOLO-World进行微调,在这种情况下,模型需要从866个类别转移到1203个类别()。

作者评估了在标准LVIS val2017数据集上微调后的模型,该数据集包含1203个类别,其中337个稀有类别是未见过的,可以用来衡量开集的性能。

结果表8展示了将YOLO-World扩展用于开集实例分割的实验结果。具体来说,作者采用了两种微调策略:(1)仅微调分割头;(2)微调所有模块。在策略(1)下,微调后的YOLO-World仍然保留了预训练阶段获得的零样本能力,使其能够在没有额外微调的情况下泛化到未见过的类别。策略(2)使YOLO-World更好地适应LVIS数据集,但它可能会导致零样本能力的退化。

表8展示了在不同设置(COCO或LVIS-base)和不同策略(微调分割头或微调所有模块)下微调YOLO-World的比较。首先,基于LVIS-base的微调比基于COCO的微调获得更好的性能。然而,AP和AP(AP/AP)之间的比率几乎不变,例如,YOLO-World在COCO和LVIS-base上的比率分别为76.5%和74.3%。

考虑到检测器是冻结的,作者将性能差距归因于LVIS数据集提供了更详细和更密集的分割标注,这对学习分割头是有利的。当微调所有模块时,YOLO-World在LVIS上获得了显著的改进,例如,YOLO-World-L实现了9.6个AP点的提升。然而,微调可能会降低开集性能,并导致YOLO-World-L的盒AP下降了0.6。

Visualizations

作者提供了在三种设置下预训练的YOLO-World-L的可视化结果:(a) 作者使用LVIS类别进行零样本推理;(b) 作者输入带有细粒度类别和属性的定制提示;(c) 指代检测。这些可视化还表明,YOLO-World在开集场景中具有很强的泛化能力,并伴有指代能力。

在LVIS上的零样本推理。图5展示了基于LVIS类别生成的可视化结果,这些结果是预先训练的YOLO-World-L以零样本方式生成的。预先训练的YOLO-World展现了强大的零样本迁移能力,并能够尽可能地检测图像中的多个目标。

使用用户词汇进行推理。在图6中,作者探索了用作者定义的类别进行YOLO-World检测的能力。可视化结果表明,预训练的YOLO-World-L也具备以下能力:(1)细粒度检测(即,检测一个物体的部分)和(2)细粒度分类(即,区分不同子类别的物体)。

参照目标检测。在图7中,作者利用一些描述性(区分性)名词短语作为输入,例如“站立的人”,来探究模型是否能够定位图像中与给定输入相匹配的区域或目标。可视化结果显示了这些短语及其对应的边界框,证明了预训练的YOLO-World具有参照或定位的能力。这种能力可以归功于作者提出的大规模训练数据的预训练策略。

5 Conclusion

作者提出了YOLO-World,这是一个尖端的实时开集检测器,旨在提高现实世界应用中的效率和开集能力。在本文中,作者将流行的YOLO架构重新塑造为视觉-语言YOLO架构,用于开集的预训练和检测,并提出了RepVL-PAN,它将视觉和语言信息与网络连接起来,并可以重新参数化以实现高效部署。

作者进一步提出了有效的预训练方案,包括检测、接地和图像-文本数据,以赋予YOLO-World强大的开集检测能力。实验可以证明YOLO-World在速度和开集性能方面的优越性,并指出视觉-语言预训练对小模型的有效性,这对未来研究具有启发意义。作者希望YOLO-World可以作为解决现实世界开集检测问题的新基准。

Appendix A Additional Details

在针对离线词汇进行推理时,作者采用了重参化方法来加速RepVL-PAN的推理速度和部署。首先,作者通过文本编码器预计算文本嵌入。

重新参数化T-CSPLayer。对于RepVL-PAN中的每个T-CSPLayer,作者可以重新参数化并简化添加文本引导的过程,通过将文本嵌入 Reshape 为卷积层(或线性层)的权重,如下所示:

其中  和  分别是输入和输出的图像特征。 表示带有 Reshape 或转置的矩阵乘法。

重新参数化I-Pooling注意力机制。I-Pooling注意力可以通过以下方式重新参数化或简化:

其中cat表示浓度,MP(-, 3)指的是对输出特征进行最大池化。是RepVL-PAN中的多尺度特征。被展平,其形状为。然后作者可以通过以下方式更新文本嵌入:

Fine-tuning Details.

在将YOLO-World迁移到COCO 目标检测时,作者去除了所有的T-CSPLayers和图像池化注意力机制,因为COCO仅包含80个类别,并且对视觉语言交互的依赖相对较低。

在微调过程中,作者使用预训练权重来初始化YOLO-World。微调的学习率设置为0.0002,权重衰减设置为0.05。微调之后,作者预先计算给定COCO类别的类别文本嵌入,并将嵌入存储到分类层的权重中。

Appendix B Automatic Labeling on Large-scale Image-Text Data

在本节中,作者详细介绍了如何使用大规模图像-文本数据对区域-文本对进行标记,例如CC3M。整个标记流程如图8所示,主要包括三个步骤,即:(1)提取物体名词,(2)伪标记,和(3)过滤。如第3.4节所讨论,作者采用简单的n-gram算法从标题中提取名词。

在获得第一步中的目标名词集合  之后,作者利用一个预训练的开集检测器,即 GLIP-L,生成伪边界框  及其置信度得分 :

其中  是粗糙的区域-文本 Proposal 。

基于CLIP的重新评分与过滤。考虑到区域文本 Proposal 中存在较多噪声,作者提出了一个利用预训练的CLIP 进行恢复和过滤的流程。对于输入图像,标题,以及粗略的区域文本 Proposal ,具体的流程如下:

  1. 计算图像-文本得分:作者将图像及其标题输入到CLIP中,并获得图像-文本相似度得分。
  2. 计算区域-文本得分:作者根据区域框从输入图像中裁剪出区域图像。然后作者将裁剪后的图像及其文本一起输入到CLIP中,并得到区域-文本相似度。
  3. [可选] 重新标记:作者可以将每个裁剪的图像与所有名词前向传播,并分配相似度最大的名词,这可以帮助纠正由GLIP错误标记的文本。
  4. 重新评分:作者采用区域文本相似度  来重新评分置信度分数 .
  5. 区域级过滤:作者首先根据文本将区域文本 Proposal 分为不同的组,然后执行非最大值抑制(NMS)以过滤掉重复的预测(NMS 阈值设置为0.5)。接着作者滤除置信度得分较低的 Proposal (阈值设置为0.3)。
  6. 图像 Level 过滤:作者通过平均保留的区域文本得分来计算图像 Level 的区域文本得分 。然后,作者通过公式  获得图像 Level 的置信度得分,并且保留那些得分大于0.3的图像。

上述提到的阈值是根据部分标注结果的实证设定的,整个流程是自动的,无需人工验证。最后,这些标注样本被用于对YOLO-World进行预训练。作者将提供CC3M的伪标注,以供进一步研究。

Appendix C Pre-training YOLO-World at Scale

当预训练小型模型时,例如YOLO-World-S,作者自然会问这样一个问题:小型模型具有多大能力,小型模型需要多少训练数据或者需要什么类型的数据?为了回答这个问题,作者利用不同数量的伪标记区域-文本对来预训练YOLO-World。

正如表9所示,增加更多的图像-文本样本可以提高YOLO-World-S的零样本性能。表9显示:

  1. 增加图像-文本数据可以提升YOLO-World-S的整体零样本性能;
  2. 对小型模型(YOLO-World-S)来说,使用过量的伪标记数据可能会有一些负面影响,尽管它能在稀有类别上提高性能(AP)。

然而,为小型模型使用细粒度标注(GoldG)可以提供显著的改进,这表明大规模高质量标注数据可以显著增强小型模型的能力。并且正文中表3已经显示,使用细标注数据和伪标注数据的组合进行预训练可以表现得更好。作者将在未来的工作中探索更多关于预训练小型模型或YOLO检测器所需的数据。

参考

[1].YOLO-World: Real-Time Open-Vocabulary Object Detection

相关文章
|
4月前
|
人工智能 算法 PyTorch
极智AI | 目标检测实现分享四:详解YOLOv4算法实现
大家好,我是极智视界,本文详细介绍一下 YOLOv4 算法的设计与实践,实践部分包括 darknet 与 pytorch。
67 1
|
4月前
|
人工智能 算法 固态存储
极智AI | 目标检测实现分享三:详解YOLOv3算法实现
大家好,我是极智视界,本文详细介绍一下 YOLOv3 算法的设计与实践。
61 0
|
4月前
|
编解码 人工智能 算法
极智AI | 目标检测实现分享二:听说克莱今天复出了?详解YOLOv2算法与克莱检测
大家好,我是极智视界,本文详细介绍一下 YOLOv2 算法的设计与实现,包括训练。
209 1
|
4月前
|
人工智能 算法 计算机视觉
极智AI | 目标检测实现分享一:详解YOLOv1算法实现
大家好,我是极智视界,本文详细介绍一下 YOLOv1 算法的设计与实现,包括训练。
115 0
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
剑桥、腾讯AI Lab等提出大语言模型PandaGPT:一个模型统一六种模态
剑桥、腾讯AI Lab等提出大语言模型PandaGPT:一个模型统一六种模态
110 0
|
11月前
|
人工智能 搜索推荐 Go
百度「文心一言」阿里「通义千问」腾讯的AI将会叫什么呢
百度「文心一言」阿里「通义千问」腾讯的AI将会叫什么呢
406 0
|
11月前
|
机器学习/深度学习 人工智能 数据挖掘
找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了,腾讯游戏知几AI团队和西工大ASLP组联合出品
找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了,腾讯游戏知几AI团队和西工大ASLP组联合出品
351 0
|
11月前
|
机器学习/深度学习 数据采集 人工智能
GNN for Science: 腾讯AI Lab、清华共同发文综述等变图神经网络
GNN for Science: 腾讯AI Lab、清华共同发文综述等变图神经网络
100 0
|
11月前
|
机器学习/深度学习 人工智能
腾讯AI Lab联合ETH提出合作博弈新范式,为可解释性等机器学习估值问题提供新方法(2)
腾讯AI Lab联合ETH提出合作博弈新范式,为可解释性等机器学习估值问题提供新方法
137 0
|
11月前
|
机器学习/深度学习 人工智能 算法
腾讯AI Lab联合ETH提出合作博弈新范式,为可解释性等机器学习估值问题提供新方法
腾讯AI Lab联合ETH提出合作博弈新范式,为可解释性等机器学习估值问题提供新方法
149 0

热门文章

最新文章