为复杂场景而生,NTU、字节等开源大型视频目标分割数据集MOSE

简介: 为复杂场景而生,NTU、字节等开源大型视频目标分割数据集MOSE


视频目标分割 (Video Object Segmentation, VOS) 的现有 SOTA 方法在已有数据集上已经取得 90+% J&F 的优异性能,似乎已经很好地解决了这一研究问题。那么现有方法在更复杂场景中的处理能力如何呢?


为了探究这个问题,来自南洋理工大学、浙江大学、牛津大学、和字节跳动的研究者们构建了一个专门针对复杂场景的大规模视频目标分割数据集 coMplex video Object SEgmentation (MOSE)。




视频目标分割 (Video Object Segmentation, VOS) 是计算机视觉中的一个热点问题。在一段视频中,给定目标物体在视频第一帧中某些线索 (如 mask, bounding box, 或者 scribble 等形式),VOS 旨在准确地分割和追踪该目标物体,获取该物体在整个视频序列中每一帧的高质量 mask。与现有的 VOS 数据集相比,MOSE 最主要的特点是在大量复杂场景中包含了拥挤的目标群、各式各样的遮挡、消失并重现的物体、以及不明显的小物体等富有挑战的情景。因此,MOSE 可以很好地衡量 VOS 算法在复杂场景下的视频目标分割性能,并推动 VOS 在更真实场景下的应用研究。


在 MOSE 数据集上,研究者们在 4 种不同设置下对 18 种视频目标分割方法进行了广泛实验,包括 6 种使用 mask 的半监督 (semi-supervised) 方法、2 种使用 bounding box 的半监督方法、3 种多目标无监督 (unsupervised) 方法、和 7 种交互式视频分割方法。实验表明,现有方法尚不能在复杂场景下取得令人满意的结果。如在最热点的 semi-supervised VOS 任务中,现有方法的 VOS 性能从 DAVIS 和 YouTube-VOS 上的 80%~90% J&F 下降到仅 40%~50% J&F。这些实验表明,尽管当前方法在现有数据集上取得了优异的性能,但在复杂场景下的视频目标分割仍存在很多未解决的挑战,未来需要更多工作来研究和探索这些挑战。


MOSE 数据集简介


MOSE 包含共 2149 个,总时长达 443 分钟的视频,包含有 36 个类别的 5200 个物体。标注的 mask 数总计达 431,725 个。从下表中可以看出,MOSE 在标注规模和总时长上明显相较于其他数据集更大。



不仅在规模上,MOSE 在难度上也尤为突出。从表中的消失率 (Disapp. Rate) 一列来看,MOSE 中有 28.8% 的物体在至少一帧中完全消失,非常考验模型对物体的再跟踪能力。同时,从反映物体遮挡强度的 mBOR 指标来看,MOSE 视频的遮挡现象相较于其他 VOS 数据集也更加显著。


此外,在保证目标物体的多样性和复杂性的同时,MOSE 也丰富了视频长度的多样性。数据集中包含了短至 5 秒的短视频和长至 1 分钟的长视频。在保证标注帧率最低为 5fps 的基础上,数据集中还包含了很多高达 30fps 的完全标注视频,这考验模型在追踪速度方面的稳定性,也进一步提高了 MOSE 数据集的难度。


可视化


MOSE 数据集中包括大量的拥挤、消失、遮挡和非显著 / 小物体等复杂场景。下面介绍一些数据集中的典型视频。


如下视频展示了一个非常拥挤复杂但贴近现实的球赛场景。红色球员首先以背对镜头的状态被其他球员所遮挡,之后在转身后以面向镜头的状态重新出现,与蓝色球员相互遮挡,这种被遮挡前和重新出现后的巨大差别极大地增加了视频的难度。



下面的视频片段中同时包含了面积较大的物体(汽车)和面积较小的物体(行人)。对于行人来说,汽车在行驶过程中几乎将两个行人完全遮挡。而大型物体(汽车)首先被环境(树木)所遮挡,而后遮挡位于画面后方的较小物体(行人)。



如下视频展示了七只山羊大步往前跑,相互之间外观高度相似且彼此遮挡,极大增加了视频目标分割的难度。且 mask 标注质量很高,对动物的尾巴和羊角等细节都进行了精细的标注。



更多可视化片段参见项目主页。


实验


以给定第一帧 mask 的半监督 (semi-supervised) 任务为例,研究者在 MOSE 上尝试了 6 种现有的开源的 VOS 算法,结果如下表所示。可以看到 MOSE 非常具有挑战性。在之前的数据集 DAVIS 和 Youtube-VOS 上,各方法均取得了 80% J&F 以上的好成绩,近乎饱和。然而,在新的 MOSE 数据集上,各方法的性能却并不尽人意。如目前最优的方法 DeAOT 在 DAVIS 2017 上的成绩为 85.2% J&F,但在 MOSE 上却只有 59.4% J&F。实验结果表明,尽管很多方法已经在之前的基准测试中取得了出色的 VOS 性能,但在复杂场景下仍存在未解决的挑战,未来需要更多努力来探索这些挑战。



研究者基于 VOS 其他子任务:无监督视频目标分割 (Unsupervised Video Object Segmentation) 以及交互式视频目标分割 (Interactive Video Object Segmentation) 也进行了实验,更多实验结果请见论文。


总结


研究者构建了一个名为 MOSE 的大规模复杂场景视频目标分割数据集,以推动 VOS 在更真实复杂场景下的应用研究。基于提出的 MOSE 数据集,作者对现有 VOS 方法进行了基准测试并进行了全面比较。发现在拥挤、消失、遮挡、以及非显著 / 小物体等复杂场景频繁出现时,会给现有算法带来了巨大挑战,期待 MOSE 能够启发更多研究人员进行复杂场景下的视频目标理解的研究。


更多细节请参考论文原文。

相关文章
|
4天前
|
人工智能
突破视频多模态大模型瓶颈!合成数据立大功,项目已开源
针对视频多模态大模型(LMMs)因缺乏高质量原始数据而发展受限的问题,研究人员开发了LLaVA-Video-178K数据集,包含178,510个视频,涵盖详细字幕、开放性问题回答和多项选择题。此数据集通过结合GPT-4o和人工标注,实现了广泛视频来源、动态视频选择、递归字幕生成及多样化任务设计。基于此数据集训练的LLaVA-Video模型,在视频字幕、问答等任务上表现优异,且已开源,助力视频LMM的研究与发展。
22 7
|
17天前
|
机器学习/深度学习 自然语言处理 人机交互
综合RLHF、DPO、KTO优势,统一对齐框架UNA来了
在大型语言模型(LLM)的预训练中,尽管模型已接触数万亿个标记,但仍可能生成不符合预期的响应。为解决这一问题,研究者提出了RLHF、DPO和KTO等对齐技术。然而,这些技术各有局限。为此,论文《UNA: Unifying Alignments of RLHF/PPO, DPO and KTO by a Generalized Implicit Reward Function》提出了一种新的统一对齐方法UNA。UNA通过引入广义隐式奖励函数,成功将RLHF/PPO、DPO和KTO统一起来,简化了训练过程,提高了模型的鲁棒性和性能。
44 15
|
1月前
|
存储 监控 安全
解释网络切片:安全挑战与解决方案
解释网络切片:安全挑战与解决方案
53 4
|
5月前
|
存储 Python
列表和字典在处理大型数据集时优势和局限性
列表和字典在处理大型数据集时优势和局限性
|
6月前
|
机器学习/深度学习 Python
网络训练需要的混合类型数据的组织方式
网络训练需要的混合类型数据的组织方式
|
人工智能 数据可视化 人机交互
一次性分割一切,比SAM更强,华人团队的通用分割模型SEEM来了
一次性分割一切,比SAM更强,华人团队的通用分割模型SEEM来了
263 0
|
机器学习/深度学习 编解码 人工智能
稠密检索新突破:华为提出掩码自编码预训练模型,大幅刷新多项基准
稠密检索新突破:华为提出掩码自编码预训练模型,大幅刷新多项基准
259 0
|
人工智能 算法 数据可视化
ECCV 2022 | 字节提出业内首个通用视频转场方案AutoTransition,数据集和代码已开源
ECCV 2022 | 字节提出业内首个通用视频转场方案AutoTransition,数据集和代码已开源
192 0
|
机器学习/深度学习 数据采集 人工智能
中科大提出统一输入过滤框架InFi:首次理论分析可过滤性,支持全数据模态
中科大提出统一输入过滤框架InFi:首次理论分析可过滤性,支持全数据模态
240 0
|
算法 测试技术 计算机视觉
迈向目标跟踪大统一:一个模型解决所有主流跟踪任务,8项基准出色
迈向目标跟踪大统一:一个模型解决所有主流跟踪任务,8项基准出色
353 0
下一篇
无影云桌面