CVPR 2022 Oral | 视频文本预训练新SOTA!港大、腾讯ARC Lab推出基于多项选择题的借口任务(2)

简介: CVPR 2022 Oral | 视频文本预训练新SOTA!港大、腾讯ARC Lab推出基于多项选择题的借口任务

4. 预训练流程
如下图所示,该研究预训练流程包含三个部分,来分别优化三个统一的对比学习(contrastive learning)形式的预训练目标:
1. 拉近视频和文本正样本对特征间的距离,并拉远负样本对特征间的距离(一个视频和它对应的文本描述被视为正样本对,否则就是负样本对)。2. 训练 BridgeFormer 回答名词问题,也就是拉近 BridgeFormer 输出的名词回答特征和 TextFormer 输出的正确答案的名词特征间的距离,并拉远名词回答特征和其他名词特征间的距离。3. 训练 BridgeFormer 回答动词问题,也就是拉近 BridgeFormer 输出的动词回答特征和 TextFormer 输出的正确答案的动词特征间的距离,并拉远动词回答特征和其他动词特征间的距离。


这里该研究使用对比学习来优化多项选择题形式的预训练目标,而不是采用传统的“masked word prediction”,也就是随机 mask 一句话里的一些单词,训练模型预测出被 mask 的单词。采用本文的这种做法有如下三个优势:

传统的 “masked word prediction” 约束模型预测出被 mask 的单词,会使得模型专注于解码 low-level 的单词本身,破坏了对模态间 high-level 的特征表达的学习。相比之下,该研究的 MCQ 以对比学习的形式拉近 BridgeFormer 输出的回答特征和 TextFormer 输出的答案特征间的距离,从而使模型专注于学习模态间 high-level 的语义信息。

该研究抹除文本里包含明确语义信息的动词和名词短语来构造有意义的问题,而传统的方法只是随机 mask 一些可能没有任何语义信息的单词。

由于问题的特征和答案的特征都是由 TextFormer 得到,这一做法可以视为对文本的 data augmentation,从而增强 TextFormer 对自然语言的语义理解能力。


消融实验也显示,相比于传统的“masked word prediction”,该研究的对比学习形式的借口任务 MCQ 在下游测评取得了更好的实验结果。


5. 模型结构
如下图所示,该研究的模型包含一个视频编码器 VideoFormer,一个文本编码器 TextFormer,和一个辅助的编码器 BridgeFormer。每一个编码器由一系列 transformer 模块构成。TextFormer 输出的每一层问题文本特征被视为 query,VideoFormer 输出的每一层视频特征被视为 key 和 value,被送入 BridgeFormer 相应层来执行跨模态的注意力机制,以获得回答特征。


6. 可视化
6.1 BridgeFormer 如何回答名词问题
下图为可视化名词问题特征和视频特征之间的注意力。在第二列和第五列,文本里蓝色的名词短语被抹除,构成了名词问题 Q1。在第三列和第六列,文本里绿色的名词短语被抹除,构成了名词问题 Q2。在第一个例子里,当 “一对老年夫妻” 被抹去,构成问题 “谁在喝咖啡”,BridgeFormer 专注于描绘人物面貌的视频特征上。而当“一盘面包” 被抹去,构成问题 “在他们面前的桌子上有什么”,BridgeFormer 把注意力集中在桌子上的物体区域。在第四个例子里,当“足球” 被抹去,构成问题 “家长和小孩在玩什么”,BridgeFormer 专注于可以和动词“玩” 构成关联的物体特征上。而当 “乡间草地” 被抹去,构成问题“家长和小孩在哪里踢足球”,BridgeFormer 把注意力放在了视频背景特征上。我们可以观察到,BridgeFormer 关注具有特定物体信息的视频区域来回答名词问题,这表明了 VideoFormer 可以从视频中提取准确的空间内容,并且 TextFormer 可以理解问题的文本语义。


6.2 BridgeFormer 如何回答动词问题
下图为可视化动词问题特征和视频特征之间的注意力。下图依次展示了一个视频里采样得到的三帧。文本里蓝色的动词短语被抹除,构成了动词问题。在左边的例子里,当 “切” 这个动词被抹去,构成问题 “一双手正在如何操作比萨饼”,BridgeFormer 关注比萨饼上餐具的移动。在右边的例子里,当“喝” 这个动词被抹去,构成问题“站在河边的男人正在怎么操作热茶”,BridgeFormer 关注握着杯子的手的移动。我们可以观察到,BridgeFormer 集中注意力在物体的移动上来回答动词问题,这表明 VideoFormer 捕获到了视频的时序动态。


7. 实验
7.1 预训练数据
该研究在图像数据集 Google Conceptual Captions 和视频数据集 WebVid-2M 上进行预训练,前者包含 3.3M 的图像 - 文本对,后者包含 2.5M 的视频 - 文本对。考虑到计算量,该研究没有使用大规模的 HowTo100M 数据集进行预训练。不过,该研究用 HowTo100M 来进行大规模的文本到视频的 zero-shot 检索测评。
7.2 下游任务
文本到视频的检索
该研究在 MSR-VTT、MSVD、LSMDC、DiDeMo 和 HowTo100M 上进行测评。采用两种测评准则,包括 zero-shot 和 fine-tune。
动作识别
该研究在 HMDB51 和 UCF101 上进行测评。采用三种测评准则,包括 linear、fine-tune 和 zero-shot。其中 zero-shot 的动作识别可以被视为是视频到文本的检索,其中动作类别的名称被视为是文本描述。
7.3 实验结果
在 MSR-VTT 数据集上,文本到视频的检索结果如下表格所示。表格上面的行显示了 zero-shot 测评结果,下面的行显示了 fine-tune 的测评结果。可以看到本文方法相比于之前的方法,在两种测评基准下都有了大幅度的提升。该研究所用模型直接以原始视频帧作为输入,不依赖任何预先提取的视频特征。


在 MSVD、LSMDC、DiDeMo 上,文本到视频的检索结果如下表格所示。本文模型同样在 zero-shot 和 fine-tune 的测评基准下,都取得了最好的结果。


该研究进一步使用 CLIP 的权重来初始化本文模型,在 MSR-VTT、MSVD 和 LSMDC 上,文本到视频的检索结果如下表格所示。该研究的借口任务 MCQ 同样可以提升基于 CLIP 的视频文本预训练的性能。


在 HMDB51 和 UCF101 上测评 zero-shot 动作识别结果如下图(a)所示,本文方法明显超出了 baseline。该研究进一步通过测评 linear 动作识别来衡量模型的单模态视频表征能力。如下图(b)所示,本文方法在时长相对较短的视频数据上进行预训练,取得了理想的结果。这显示了该研究的借口任务 MCQ 可以通过对文本语义的有效利用,增强视频的表征学习。


更多的实验结果和消融实验,参见论文。
8. 总结
本文提出了一个全新的借口任务用于视频文本预训练,叫做多项选择题(MCQ)。这一借口任务加强了局部视频和文本特征的细粒度的关联,并且实现了高效的下游检索。一个参数化模块 BridgeFormer 被训练通过借助视频特征,回答由文本特征构成的选择题,并且在下游任务时可以被移除。本文模型在文本到视频检索和零样本动作识别多个测评基准的结果,显示了 MCQ 这一借口任务的有效性。

相关文章
|
3月前
|
自然语言处理
从头设计抗体,腾讯、北大团队预训练大语言模型登Nature子刊
【9月更文挑战第12天】近年来,抗体药物在生物医药领域展现出巨大潜力,但其高昂的研发成本和漫长周期成为瓶颈。为此,腾讯与北京大学合作开发了PALM-H3,这是一种基于预训练大语言模型的创新抗体设计方法。PALM-H3将抗体序列视为语言,利用Roformer模型学习其生成规律,实现从头设计高亲和力抗体,不依赖自然抗体,大幅提高研发效率和灵活性。此外,该方法还可广泛应用于疫苗设计和蛋白质工程等领域,加速新药上市。然而,确保抗体体内稳定性和安全性仍是挑战。论文详见:https://www.nature.com/articles/s41467-024-50903-y
55 1
|
5月前
|
存储 测试技术 计算机视觉
开源视频版GPT-4o?快速记忆,实时问答,拿下CVPR'24长视频问答竞赛冠军
【7月更文挑战第24天】Flash-VStream, 一款模拟人脑记忆的视频语言模型,实现实时长视频流理解和问答,夺得CVPR'24竞赛桂冠。它采用动态记忆技术,高效存储检索信息,大幅降低推理延迟与显存消耗,超越现有模型。虽有资源限制及复杂查询处理难题,仍展现卓越通用性及先进性能。[详细论文](https://arxiv.org/abs/2406.08085)。
101 17
|
存储 人工智能 自然语言处理
7 Papers | 浙大研究获SIGMOD 2023最佳论文;GPT-4拿下最难数学推理数据集新SOTA
7 Papers | 浙大研究获SIGMOD 2023最佳论文;GPT-4拿下最难数学推理数据集新SOTA
311 0
|
存储 人工智能 自然语言处理
大羊驼、羊驼、小羊驼和ChatGPT比差在哪儿?CMU副教授测评了7个类ChatGPT大模型
大羊驼、羊驼、小羊驼和ChatGPT比差在哪儿?CMU副教授测评了7个类ChatGPT大模型
146 0
|
自然语言处理 计算机视觉
CVPR 2022 Oral | 视频文本预训练新SOTA!港大、腾讯ARC Lab推出基于多项选择题的借口任务(1)
CVPR 2022 Oral | 视频文本预训练新SOTA!港大、腾讯ARC Lab推出基于多项选择题的借口任务
|
机器学习/深度学习 存储 人工智能
7 Papers | AAAI 2023杰出论文奖;AI生成文本检测方法综述
7 Papers | AAAI 2023杰出论文奖;AI生成文本检测方法综述
704 0
|
算法 机器人 数据建模
中国学者开发看护机器人仿真环境,还做了真人实验,获IROS 2022最佳论文之一
中国学者开发看护机器人仿真环境,还做了真人实验,获IROS 2022最佳论文之一
166 0
|
机器学习/深度学习 存储 人工智能
对比学习引领弱标签学习新SOTA,浙大新研究入选ICLR Oral
对比学习引领弱标签学习新SOTA,浙大新研究入选ICLR Oral
159 0
|
机器学习/深度学习 人工智能 编解码
7 Papers & Radios | Meta AI首个多模态自监督算法;牛津、谷歌等撰文综述AutoRL
7 Papers & Radios | Meta AI首个多模态自监督算法;牛津、谷歌等撰文综述AutoRL
117 0
|
机器学习/深度学习 人工智能 编解码
Hinton上榜!盘点AI图像合成10年史,那些值得被记住的论文和名字(1)
Hinton上榜!盘点AI图像合成10年史,那些值得被记住的论文和名字
168 0
下一篇
DataWorks