迈向目标跟踪大统一:一个模型解决所有主流跟踪任务,8项基准出色

简介: 迈向目标跟踪大统一:一个模型解决所有主流跟踪任务,8项基准出色

单目标跟踪、多目标跟踪、视频目标分割、多目标跟踪与分割这四个任务,现在一个架构就搞定了。


目标跟踪是计算机视觉中的一项基本任务,旨在建立帧间像素级或实例级对应关系,并输出 box 或掩码(mask)形式的轨迹。根据不同应用场景,目标跟踪主要分为四个独立的子任务:单目标跟踪(SOT)、多目标跟踪(MOT)、视频目标分割 (VOS) 、多目标跟踪与分割 (MOTS) 。

大多数目标跟踪方法仅针对其中一个或部分子任务。这种碎片化情况带来以下缺点:(1)跟踪算法过度专注于特定子任务,缺乏泛化能力。(2) 独立模型设计导致参数冗余。

那么,是否能用一个统一的模型来解决所有的主流跟踪任务?

现在,来自大连理工大学、字节跳动和香港大学的研究者提出了一种统一的方法,称为 Unicorn,它可以使用相同的模型参数通过单个网络同时解决四个跟踪问题(SOT、MOT、VOS、MOTS)。

Unicorn 的统一表现在在所有跟踪任务中采用相同的输入、主干、嵌入和头,首次实现了跟踪网络架构和学习范式的统一。Unicorn 在 8 个跟踪数据集(包括 LaSOT、TrackingNet、MOT17、BDD100K、DAVIS16-17、MOTS20 和 BDD100K MOTS)上的表现与特定任务方法的性能相当或更好。Unicorn 将成为迈向通用视觉模型的坚实一步。研究论文已被接收为 ECCV 2022 oral 。


先来看一下 Unicorn 的实现效果:



我们再来看一下论文的具体内容。

方法

Unicorn 由三个部分组成:统一输入与主干、统一嵌入、统一头。三个组件分别负责获得强大的视觉表征、建立精确的对应关系和检测不同的跟踪目标。Unicorn 的框架如图 2 所示。给定参考帧 I_ref、当前帧 I_cur 和参考目标,Unicorn 旨在通过统一的网络预测当前帧上跟踪目标的状态,以用于四个任务。

统一输入和主干

为了有效地定位多个潜在目标,Unicorn 将整个图像(参考帧和当前帧)而不是局部搜索区域作为输入。在特征提取过程中,参考帧和当前帧通过权重共享主干获得特征金字塔表示(FPN)。为了在计算对应关系时保持重要细节并减少计算负担,本文选择 stride 为 16 的特征图作为之后嵌入模块的输入。参考帧和当前帧的相应特征分别称为 F_ref 和 F_cur。

统一嵌入

目标跟踪的核心任务是在视频中的帧之间建立准确的对应关系。对于 SOT 和 VOS,逐像素对应将用户提供的目标从参考帧(通常是 1^th 帧)传播到 t^th 帧,为最终的框或掩码预测提供强大的先验信息。此外,对于 MOT 和 MOTS,实例级对应有助于将 t^th 帧上检测到的实例与参考帧(通常是 t-1^th 帧)上的现有轨迹相关联。

统一头

为了实现目标跟踪的大统一,另一个重要且具有挑战性的问题是为四个跟踪任务设计一个统一头。具体而言,MOT 检测特定类别的目标,SOT 需要检测参考帧中给定的任何目标。为了弥补这一差距,Unicorn 向原始检测器头引入了一个额外的输入(称为目标先验)。无需任何进一步修改,Unicorn 就可以通过这个统一的头轻松检测四项任务所需的各种目标。

训练和推理

训练:整个训练过程分为 SOT-MOT 联合训练和 VOS-MOTS 联合训练两个阶段。在第一阶段,使用来自 SOT&MOT 的数据对网络进行端到端优化,包括对应损失和检测损失。在第二阶段,使用来自 VOS&MOTS 的数据在其他参数固定的情况下添加和优化掩码分支,并使用掩码损失进行优化。

推理:在测试阶段,对于 SOT&VOS,参考目标图在第一帧生成一次,并在后续帧中保持固定。Unicorn 直接挑选置信度得分最高的框或掩码作为最终的跟踪结果。此外,Unicorn 只需要运行一次主干和对应,是运行轻量级头而不是运行整个网络 N 次,本文方法效率更高。对于 MOT&MOTS,Unicorn 检测给定类别的所有目标并同时输出相应的实例嵌入。之后的关联分别基于 BDD100K 和 MOT17 的嵌入和运行模型执行。

实验

LaSOT:LaSOT 是一个大规模的长期跟踪基准,测试集中包含 280 个视频,平均长度为 2448 帧。表 1 显示 Unicorn 实现了新的 SOTA 成功率和精度,分别为 68.5% 和 74.1%。值得注意的是,Unicorn 以更简单的网络架构和跟踪策略,大大超过了之前最好的基于全局检测的跟踪器 Siam R-CNN(68.5% vs 64.8%)。

TrackingNet:TrackingNet 是一个大规模的短期跟踪基准,测试集中有 511 个视频。如表 1 所示,Unicorn 以 83.0% 的成功率和 82.2% 的精度超越了所有以前的方法。

MOT17 以行人跟踪为重点,训练集有 7 个序列,测试集也有 7 个序列。从表 2 可以看出,Unicorn 实现了最好的 MOTA 和 IDF1,分别比之前的 SOTA 方法高出 0.5% 和 0.4%。

BDD100K 是一个大规模的视觉驾驶场景数据集,需要跟踪 8 类实例。如表 3 所示,Unicorn 取得了最佳性能,在验证集上大大超过了之前的 SOTA 方法 QDTrack。具体来说,mMOTA 和 mIDF1 的提升分别高达 4.6% 和 3.2%。

DAVIS-16 在验证集中包含 20 个视频,每个序列中只有一个跟踪目标。图 4 表明 Unicorn 在使用边框初始化的方法中取得了最好的结果,甚至超过了使用掩码初始化的 RANet 和 FRTM。


MOTS20 Challenge 在训练集中有 4 个序列,在测试集中有 4 个序列。如表 5 所示,Unicorn 实现了 SOAT 性能,在 sMOTSA 上以 3.3% 的幅度超过了第二好的方法 PoinTrackV2。

BDD100K MOTS Challenge 在验证集中包含 37 个序列。图 6 表明 Unicorn 大大优于先前最佳方法 PCAN(即 mMOTSA +2.2%,mAP +5.5%)。同时,Unicorn 没有像 PCAN 那样使用时空存储器或原型网络等复杂设计,引入了更简单的 pipeline。

相关文章
|
机器学习/深度学习 人工智能 自然语言处理
视觉 注意力机制——通道注意力、空间注意力、自注意力
本文介绍注意力机制的概念和基本原理,并站在计算机视觉CV角度,进一步介绍通道注意力、空间注意力、混合注意力、自注意力等。
13674 58
|
自然语言处理 算法 数据挖掘
自蒸馏:一种简单高效的优化方式
背景知识蒸馏(knowledge distillation)指的是将预训练好的教师模型的知识通过蒸馏的方式迁移至学生模型,一般来说,教师模型会比学生模型网络容量更大,模型结构更复杂。对于学生而言,主要增益信息来自于更强的模型产出的带有更多可信信息的soft_label。例如下右图中,两个“2”对应的hard_label都是一样的,即0-9分类中,仅“2”类别对应概率为1.0,而soft_label
自蒸馏:一种简单高效的优化方式
|
机器学习/深度学习 人工智能 自然语言处理
【EMNLP2024】面向长文本的文视频表征学习与检索模型 VideoCLIP-XL
阿里云人工智能平台 PAI 与华南理工大学金连文教授团队合作,在自然语言处理顶会 EMNLP 2024 上发表论文《VideoCLIP-XL: Advancing Long Description Understanding for Video CLIP Models》。VideoCLIP-XL 模型,有效地提升了对视频的长文本描述的理解能力。
|
11月前
|
JSON 文字识别 测试技术
Qwen2.5-VL Cookbook来啦!手把手教你怎么用好视觉理解模型!
今天,Qwen团队发布了一系列展示 Qwen2.5-VL 用例的Notebook,包含本地模型和 API 的使用。
3193 22
|
搜索推荐 物联网 PyTorch
Qwen2.5-7B-Instruct Lora 微调
本教程介绍如何基于Transformers和PEFT框架对Qwen2.5-7B-Instruct模型进行LoRA微调。
12810 34
Qwen2.5-7B-Instruct Lora 微调
|
11月前
|
架构师 Linux Docker
三分钟让Dify接入Ollama部署的本地大模型!
本文详细介绍了如何在 Dify 中接入 Ollama 模型,包括模型添加、参数配置及常见问题解决。通过运行 Ollama 服务并与 qwen2:0.5b 模型交互,实现本地化大模型应用开发。同时提供了 Docker、Mac、Linux 和 Windows 平台上 Ollama 的部署与环境变量设置指南,帮助开发者快速上手。更多实战技巧可访问[编程严选网](http://www.javaedge.cn/)或关注作者的 Github 仓库。
7205 2
三分钟让Dify接入Ollama部署的本地大模型!
|
网络协议 Java Linux
PyAV学习笔记(一):PyAV简介、安装、基础操作、python获取RTSP(海康)的各种时间戳(rtp、dts、pts)
本文介绍了PyAV库,它是FFmpeg的Python绑定,提供了底层库的全部功能和控制。文章详细讲解了PyAV的安装过程,包括在Windows、Linux和ARM平台上的安装步骤,以及安装中可能遇到的错误和解决方法。此外,还解释了时间戳的概念,包括RTP、NTP、PTS和DTS,并提供了Python代码示例,展示如何获取RTSP流中的各种时间戳。最后,文章还提供了一些附录,包括Python通过NTP同步获取时间的方法和使用PyAV访问网络视频流的技巧。
3509 4
PyAV学习笔记(一):PyAV简介、安装、基础操作、python获取RTSP(海康)的各种时间戳(rtp、dts、pts)
|
人工智能 自然语言处理 并行计算
探索大模型部署:基于 VLLM 和 ModelScope 与 Qwen2.5 在双 32G VGPU 上的实践之旅
本文介绍了使用 `VLLM` 和 `ModelScope` 部署 `Qwen2.5` 大模型的实践过程,包括环境搭建、模型下载和在双 32G VGPU 上的成功部署,展现了高性能计算与大模型结合的强大力量。
3245 3