ONE-PEACE:探索通往无限模态的通用表征模型

本文涉及的产品
视觉智能开放平台,图像资源包5000点
视觉智能开放平台,分割抠图1万点
视觉智能开放平台,视频资源包5000点
简介: 过去几年里,表征模型在自然语言处理、计算机视觉、语音处理等领域取得了巨大的成功。经过大量数据学习的表征模型,不仅可以在各种下游任务上取得良好的效果,还可以作为大规模语言模型(LLM)的基座模型,为LLM提供多模态理解能力。随着多模态技术的发展,尤其CLIP[1]之后大家都意识到一个好的多模态表征模型在很多单模态任务上都会发挥着至关重要的基础模型的作用。学习了大量模态alignment的数据之后的模型逐渐在学会去理解各个模态和模态间蕴含的知识,甚至通过对大量模态的学习促进对其它模态的理解。

     但过去大部分模型,基本都把重点关注在图文数据上了,主要还是得益于社区贡献了大量高质量的如LAION[2]这类的数据集。然而如果想更进一步去理解世界,我们希望能够把全世界各种模态的信息关联在一起,实现一个不限模态(unlimited modalities)的通用表征模型。

     为此,本文探索如何构建一个能够通往无限模态的通用表征模型。我们从模型架构和预训练任务出发,设计了扩展友好的模型架构和模态无关的预训练任务:

1)扩展友好的架构。能够方便友好地扩展到不同的模态上,并且允许多模态信息的交互。

2)模态无关的任务。任务足够通用,能够应用到不同的模态上,并且不依赖于第三方模型。另外,这些任务可以同时兼顾多模态任务和单模态任务上的效果。

      基于设计的结构和任务,我们构建出了4B规模的图文音三模态通用表征模型——ONE-PEACE在语义分割、音文检索、音频分类和视觉定位几个任务都达到了新SOTA表现,在视频分类、图像分类图文检索、以及多模态经典benchmark也都取得了比较领先的结果。另外,模型展现出来新的zeroshot能力,即实现了新的模态对齐,比如音频和图像的对齐,或者音频+文字和图像的对齐,而这类数据并没有出现在我们的预训练数据集里。



  ONE-PEACE

   扩展友好的架构

    ONE-PEACE的模型架构包含3个模态适配器以及1个模态整合器。

    ●模态适配器:负责将不同模态的原始输入转换为向量。注意到这些适配器互不干涉,因此我们可以针对不同模态的特性灵活的选择适配器的结构。在本文中,我们为ONE-PEACE设计了三种轻量的模态适配器。这里Language Adaptor就是最简单的Word EmbeddingVision Adapter采用了DeiT[3]提出的hierarchical MLP,相比过去使用ResNet或者VIT成本更低,效果也比朴素的linear层要更好,Audio Adapter采用了wav2vec 2.0[4]convolutional feature extractor,并且使用额外的卷积层来提取相对位置信息。

    ●模态整合器:负责整合不同模态的信息。Follow我们之前的工作OFA,模态整合器基于Transformer架构。我们希望模型既有统一处理的部分,也有模态特定的处理部分,参照之前的工作[5, 6],我们将FFN部分设计成multiwayModality MoE)的方式,每个模态包含各自的FFN层。而在Transformer内部,主要实现了几处改动。一是GeGLU[7]的引入,相比GeLU能实现更好的效果;二是相对位置编码,实现更好的position表示;三是使用了Magneto[8]的方案,在attentionFFN均新增layernorm增加训练稳定性,四是使用LayerScale[9],同样能够提升训练稳定性。

1.png

       模态无关的任务

     ●模态间对比学习:这部分使用了类似于CLIP的训练方法,我们将其扩展到了更多的模态组合,从而实现模态和模态之间的对齐。这里我们没有遍历所有模态的两两组合,而选用文本作为中介,将图文音三种模态整合到一个语义空间中。

     ●模态内去噪对比学习:该任务可以看作是masked predictionconstrastive learning的结合,其实就是使用contrastive learning来完成masked predictiion这件事。相比于模态间对比学习,模态内去噪对比学习更注重学习模态内部的细节信息,因此该任务能让模型取得更好的微调效果。

     通过结合这两种预训练任务,模型可以同时具备优越的跨模态检索能力和微调能力。需要特别说明的是,这两种任务都是模态无关的,即它们可以应用到各种模态以及模态组合上,并且不依赖于任何额外的模型。借助扩展友好的架构和模态无关的任务,ONE-PEACE具备扩展到无限模态的潜力。

2.png

   训练

     ONE-PEACE的预训练过程分为两个阶段:图文预训练和音文预训练

在图文预训练阶段,我们使用图文对进行训练,并且只更新与图文相关的参数,如Vision-AdapterSelf-AttentionLanguage-FFN等。在该阶段,我们使用LAION-2B[12]数据进行训练,并通过一系列的数据清洗流程保留了里面质量较高的1.5B数据。在音文预训练阶段,我们引入了与音频模态相关的模块,Audio-AdapterAudio-FFN等,该阶段的训练仅更新这些音频相关的模块,其它参数则全部冻结。在该阶段,我们从多个来源收集大量的环境音数据进行训练,有关这些数据的详细信息如下表所示:

3.png

      尽管没有在图音对上进行训练,但ONE-PEACE依然通过语言作为锚点将图文音三模态整合到了一个语义空间中。因此,ONE-PEACE实际上是一个以语言为核心的模型。后续的实验表明,ONE-PEACE具备音搜图这一预训练任务中不涉及的能力,在Imagebind[11]这项工作里,这种能力也被称之为emergent zero-shot capabilities



   参数规模

     ONE-PEACE的整体参数规模为4B,得益有模态共享-分离的架构设计,ONE-PEACE也可以被拆解成各种分支来处理不同类型的任务,如拆解成Vision-Branch来处理视觉任务等,下面这张图展示了ONE-PEACE的模型配置:

4.png

     为了加速ONE-PEACE的训练,我们使用了诸如Memory-Efficient AttentionCheckpointingFusedLayerNormNvfuseBf16等训练加速技巧,有关训练的更多细节可以阅读我们的paper





    通用模型效果验证

       为了验证ONE-PEACE的能力,我们在3个模态,11个任务,16个数据集上进行了详尽的实验。作为一个三模态的表征模型,ONE-PEACE可以做的任务还有很多很多,但受限于精力,笔者实在做不动了。需要特别说明的是,ONE-PEACE这个工作的主要目的不是为了刷点,我们在benchmark上的大量实验只是为了证明这个模型在各方面都很能打,ONE-PEACE有着很大的想象空间,比如可以通过结合LLM打造三模态的MLLM,作为基础模型提供多模态特征等等。目前我们的代码和Checkpoint已经全部在Github开源,也欢迎大家接着我们的工作搞些事情。

     

     视觉任务

      图像分类

       我们首先在Imagenet-1K测试了ONE-PEACE的图像分类能力,如下图所示。在不使用私有数据的情况下,ONE-PEACE取得了89.8acc,超越了同setting下的一众模型。注意到,FD-SwinV2-G, BEiT-3, and EVA等基线模型均依赖于预训练好的CLIP辅助训练,而ONE-PEACE的预训练过程不依赖于任何的第三方模型,且其参数是完全随机初始化的。尽管如此,ONE-PEACE仍然取得了更好的效果。

5.png

     语义分割

      我们ADE20K上进行了语义分割实验,ONE-PEACE取得了63.0mIoU,超过了EVABeiT-3InternImage等一众模型,取得了新的SOTA结果。

6.png

     物体检测

      在MSCOCO上做物体检测和实例分割仅次于RevCol,并且ONE-PEACE并没有做Object365intermediate finetuning

7.png

     视频分类

      在视频分类任务的K400上,ONE-PEACE超过了诸如CoCaViT-22B等强基线模型。相比于CoCaONE-PEACE的训练步数和数据量要更少。相比于ViT-22BONE-PEACE的参数量要更少。

8.png

     语音(-文本)任务

      音文检索

       在音文检索任务,ONE-PEACE取得了新的SOTA结果,大幅度超越了之前的模型。

9.png

     音频分类 & 音频问答

      我们进一步在多个音频分类和音频问答上测试ONE-PEACE的能力。如下图所示,ONE-PEACE在这些任务上都拿到了SOTA的结果。

10.png

     图文多模态任务

      图文检索

       我们在MSCOCOFlickr30K评测ONE-PEACE的图文检索能力。在Fine-tuning setting下,ONE-PEACE超过了BEIT-3等强基线模型(注:为公平起见,表中没有列出retrieval-then-rank一类的模型)。在Zero-shot setting下,ONE-PEACE超过了CLIPFlorence等基线模型。ONE-PEACE训练的图文对要远少于CoCa6.4B vs 25.6B),这可能是其效果弱于CoCa的原因。

11.png

     视觉定位

      在视觉定位任务上,我们拿到了RefCOCO一系列数据集合上的SOTA,超过了我们之前的工作OFA。值得注意的是,OFAFIBER等基线模型都使用了Visual Genome等额外的的视觉定位数据进行训练,而ONE-PEACE仅仅只在RefCOCO/+/g上进行了Finetune。我们进一步在一张宝可梦图片上对比ONE-PEACEOFA,当直接给定宝可梦的名字时,ONE-PEACE可以正确定位具体的宝可梦,而OFA则不能正确定位,这可能是由于ONE-PEACE在预训练阶段吃下了更多的图文数据,因此其泛化能力也更好。

12.png

image.png

     图文理解

      在VQANLVR2上,ONE-PEACE也是超过了BLIP-2CoCa等强基线模型。注意到我们在两个任务上的效果都弱于BEiT-3,这可能有两个原因:1BEiT-3MSCOCOCC3MIn-domain数据上进行预训练,这通常能带来更好的微调效果;2BEiT-3引入了纯文本数据进行预训练,这可以提高模型对文本的理解能力,从而进一步提高模型的多模态理解能力。在未来的工作中,我们将考虑结合时下比较热门的LLM来提高ONE-PEACE的文本理解能力。

14.png

   涌现能力

      前文提到,ONE-PEACE只在图文对和音文对上进行训练,尽管如此,ONE-PEACE依然可以实现音频和图像之间的互相检索。如下图所示,我们通过case展示了ONE-PEACE的音搜图,音+图搜图,以及音+文搜图的能力。在给定不同的条件下,ONE-PEACE都可以召回比较相关的图像,证明了其强大的多模态检索能力。我们在论文和Github里提供了更多的Case,感兴趣的同学可以去翻看。不满足于case的同学,还可以通过我们提供的Demo来进一步体验ONE-PEACE的检索能力。

15.png

   消融实验

      我们在paper里还进行了大量的消融实验,用于说明ONE-PEACE的结构和预训练任务的有效性,ATA里就不再展开说了,感兴趣的同学可以阅读原论文。



   总结与未来工作

      本文探索如何构建一个能够通往无限模态的通用表征模型。基于扩展友好的结构和模态无关的任务,我们输出了一个4B规模的图音文三模态表征模型,ONE-PEACE。我们在一系列单模态和跨模态任务上进行了相关实验,拿下了多个视觉、语音、多模态任务的SOTA,并在emergent zero-shot retrieval上展现出了强劲的实力。

      

     其实无论是ONE-PEACE还是之前的OFA,我们团队都是在探索一种简易有效的方式,希望打造出一个能够兼容所有模态的通用AI模型。近半年来,LLM以及MLLMMulti-modal LLM)的高速发展也让我们看到了一条行之有效的捷径,即以语言为核心逐步构建一个通用AI模型。在未来的工作中,我们会围绕着LLM继续发展出更强的通用模型,包括:

      1)借助LLM,打造更强大的通用表征模型;

      2)结合LLM,打造更普适的通用生成模型。


参考文献

团队近期相关工作:

[1]. OFA: Unifying Architectures, Tasks, and Modalities through a Simple Sequence-to-Sequence Learning Framework, ICML 2022. [paper][ATA]

[2]. OFASys: A Multi-Modal Multi-Task Learning System for Building Generalist Models, 2022. [paper]

[3]. Transferring General Multimodal Pretrained Models to Text Recognition, ACL 2023. [paper]

[4]. Prompt Tuning for Generative Multimodal Pretrained Models, ACL 2023. [paper]

[5]. MMSpeech: Multi-modal Multi-task Encoder-Decoder Pre-training for Speech Recognition, Interspeech 2023, [paper][ATA]

[6]. Chinese CLIP: Contrastive Vision-Language Pretraining in Chinese, 2023. [paper][ATA]

[7]. M6-OFA,通用多模态预训练升级. [ATA]



外部部分工作Reference:

[1]. Radford A, Kim J W, Hallacy C, et al. Learning transferable visual models from natural language supervision[C]//International conference on machine learning. PMLR, 2021: 8748-8763.

[2]. Schuhmann C, Beaumont R, Vencu R, et al. Laion-5b: An open large-scale dataset for training next generation image-text models[J]. arXiv preprint arXiv:2210.08402, 2022.

[3]. Touvron H, Cord M, Jégou H. Deit iii: Revenge of the vit[C]//Computer Vision–ECCV 2022: 17th European Conference, Tel Aviv, Israel, October 23–27, 2022, Proceedings, Part XXIV. Cham: Springer Nature Switzerland, 2022: 516-533.

[4]. Baevski A, Zhou Y, Mohamed A, et al. wav2vec 2.0: A framework for self-supervised learning of speech representations[J]. Advances in neural information processing systems, 2020, 33: 12449-12460.

[5]. Bao H, Wang W, Dong L, et al. Vlmo: Unified vision-language pre-training with mixture-of-modality-experts[J]. Advances in Neural Information Processing Systems, 2022, 35: 32897-32912.

[6]. Wang W, Bao H, Dong L, et al. Image as a foreign language: Beit pretraining for all vision and vision-language tasks[J]. arXiv preprint arXiv:2208.10442, 2022.

[7]. Shazeer N. Glu variants improve transformer[J]. arXiv preprint arXiv:2002.0520

[8]. Wang H, Ma S, Huang S, et al. Foundation transformers[J]. arXiv preprint arXiv:2210.06423, 2022.

[9]. Touvron H, Cord M, Sablayrolles A, et al. Going deeper with image transformers[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021: 32-42.

[10]. Yu J, Wang Z, Vasudevan V, et al. Coca: Contrastive captioners are image-text foundation models[J]. arXiv preprint arXiv:2205.01917, 2022.

[11]. Girdhar R, El-Nouby A, Liu Z, et al. Imagebind: One embedding space to bind them all[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023: 15180-15190.

[12]. Schuhmann C, Beaumont R, Vencu R, et al. Laion-5b: An open large-scale dataset for training next generation image-text models[J]. arXiv preprint arXiv:2210.08402, 2022.

相关文章
|
6月前
|
人工智能 算法
生成模型不适合处理视频,AI得在抽象空间中进行预测
生成模型不适合处理视频,AI得在抽象空间中进行预测
283 0
生成模型不适合处理视频,AI得在抽象空间中进行预测
|
1月前
|
机器学习/深度学习 编解码 负载均衡
MoH:融合混合专家机制的高效多头注意力模型及其在视觉语言任务中的应用
本文提出了一种名为混合头注意力(MoH)的新架构,旨在提高Transformer模型中注意力机制的效率。MoH通过动态注意力头路由机制,使每个token能够自适应选择合适的注意力头,从而在减少激活头数量的同时保持或提升模型性能。实验结果显示,MoH在图像分类、类条件图像生成和大语言模型等多个任务中均表现出色,尤其在减少计算资源消耗方面有显著优势。
46 1
|
自然语言处理 测试技术 vr&ar
更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」
更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」
259 0
|
2月前
|
自然语言处理 数据处理
情感分析的终极形态:全景式细粒度多模态对话情感分析基准PanoSent
【9月更文挑战第24天】PanoSent是一种全新的多模态对话情感分析框架,旨在全景式地提取和分析情感元素,包括情感六元组提取与情感翻转分析两大任务。此框架依托大规模、高质量的多模态数据集PanoSent,涵盖文本、图像、音频等多种模态及多种语言,适应不同应用场景。为解决这些任务,研究人员提出了Chain-of-Sentiment推理框架,结合多模态大语言模型Sentica,实现细粒度的情感分析。尽管PanoSent在情感分析任务上表现优异,但仍面临多模态数据处理和跨领域适用性的挑战。
47 2
|
4月前
|
机器学习/深度学习 自然语言处理
大模型概念问题之大模型在生成文本方面有哪些革命性突破
大模型概念问题之大模型在生成文本方面有哪些革命性突破
|
6月前
|
存储 机器学习/深度学习 人工智能
论文介绍:InfLLM——揭示大型语言模型在无需训练的情况下处理极长序列的内在能力
【5月更文挑战第18天】InfLLM是一种新方法,无需额外训练即可增强大型语言模型处理极长序列的能力。通过使用记忆单元存储长序列的远距离上下文,InfLLM能更准确地捕捉长距离依赖,提高对长文本理解。实验表明,InfLLM使预训练在短序列上的模型在处理极长序列时表现媲美甚至超过专门训练的模型。尽管有挑战,如动态上下文分割和记忆单元效率,InfLLM为长序列处理提供了有效且未经训练的解决方案。论文链接:https://arxiv.org/abs/2402.04617
154 3
|
5月前
|
机器学习/深度学习 监控
【机器学习】基于扩散模型的文本到音频生成:突破数据局限,优化音频概念与实践顺序
【机器学习】基于扩散模型的文本到音频生成:突破数据局限,优化音频概念与实践顺序
170 0
|
6月前
|
机器学习/深度学习 存储 算法
基于多模态融合与图神经网络的用户精准感知系统研究
基于多模态融合与图神经网络的用户精准感知系统研究
206 0
|
自然语言处理 计算机视觉
单一ViT模型执行多模态多任务,谷歌用协同训练策略实现多个SOTA
单一ViT模型执行多模态多任务,谷歌用协同训练策略实现多个SOTA
377 0
|
机器学习/深度学习 自然语言处理 算法
机器学习中的嵌入:释放表征的威力
机器学习中的嵌入:释放表征的威力
95 1

热门文章

最新文章