抛弃视觉编码器,这个原生版多模态大模型也能媲美主流方法

简介: 【8月更文挑战第4天】在AI领域,多模态大模型(VLMs)融合视觉与语言处理,但现有模型多依赖视觉编码器,限制了灵活性与效率。为解决此问题,研究者开发出不依赖编码器的VLMs,提出一种高效训练方案,通过统一解码器内部桥接视觉-语言表示,并引入额外监督增强视觉识别能力。基于此,开发出EVE模型,在多个基准测试中表现出色,仅用3500万公开数据即可媲美甚至超越传统模型。尽管如此,EVE仍面临计算资源需求高及数据质量等挑战。这一突破引发了对未来VLM发展方向的讨论。[论文链接: https://arxiv.org/abs/2406.11832]

在人工智能领域,多模态大模型(VLMs)已经成为处理视觉和语言任务的重要工具。然而,现有的VLMs大多依赖于视觉编码器来提取视觉特征,然后使用大型语言模型(LLMs)来完成视觉-语言任务。这种依赖性为VLMs的灵活性和效率带来了一定的限制,因为视觉编码器在抽象视觉表示方面引入了强烈的归纳偏置,如分辨率、长宽比和语义先验。

为了解决这个问题,研究人员一直在探索训练纯粹的VLMs,即不依赖视觉编码器的VLMs。然而,直接训练没有编码器的VLMs面临着巨大的挑战,并且很少有研究涉及。经验观察表明,没有编码器的直接训练会导致收敛缓慢和性能差距较大。

为了填补编码器基模型和无编码器模型之间的差距,并推动纯粹VLMs的发展,研究人员提出了一种简单而有效的训练方案。通过广泛的实验,他们揭示了高效训练无编码器VLMs的关键方面:

1.在统一的解码器内部桥接视觉-语言表示:研究人员发现,通过在统一的解码器内部桥接视觉和语言表示,可以提高VLMs的灵活性和效率。这种桥接使得VLMs能够直接处理视觉和语言输入,而无需依赖视觉编码器。

2.通过额外的监督增强视觉识别能力:为了进一步提高VLMs的性能,研究人员引入了额外的监督信号来增强模型的视觉识别能力。这包括使用额外的数据集和任务来训练模型,以使其能够更好地理解和处理视觉信息。

基于这些策略,研究人员开发了一种名为EVE的无编码器VLM。EVE能够高效地进行训练和推理,并在多个视觉-语言基准测试中表现出色。值得注意的是,EVE仅使用3500万个公开可用的数据,就能够与具有类似容量的编码器基VLMs相媲美,甚至在某些任务上超越了它们。

然而,尽管EVE在无编码器VLMs的训练方面取得了显著的进展,但仍存在一些挑战和限制。首先,EVE的训练过程可能需要更多的计算资源和时间,因为没有视觉编码器的帮助,模型需要从头开始学习视觉表示。其次,EVE的性能可能受到可用数据质量和数量的限制,因为高质量的视觉-语言数据集仍然相对较少。

此外,EVE的成功也引发了一些关于VLMs未来发展方向的讨论。一些人认为,无编码器VLMs代表了多模态学习的未来,因为它们具有更好的灵活性和可扩展性。然而,另一些人则认为,编码器基VLMs仍然具有重要的优势,如更好的性能和更广泛的应用领域。

论文地址: https://arxiv.org/abs/2406.11832

目录
相关文章
|
6月前
|
人工智能 自然语言处理 算法
谷歌推出”自我发现“框架,极大增强GPT-4等大模型推理能力
【4月更文挑战第20天】谷歌DeepMind团队推出了SELF-DISCOVER框架,让大型语言模型能自我发现并构建推理结构,提升在复杂任务中的性能。该框架模仿人类解决问题方式,分两阶段选择和适应原子推理模块,以解决挑战。在多任务测试中,SELF-DISCOVER相比传统方法表现出色,性能提升42%,计算量减少10至40倍。它具有跨模型应用的普适性,并与人类思维方式相通。然而,它在某些任务类型上仍有优化空间,且需解决计算成本问题。论文链接:https://arxiv.org/abs/2402.03620
90 1
|
5天前
|
数据采集 人工智能 自然语言处理
英伟达开源NVLM 1.0屠榜多模态!纯文本性能不降反升
【10月更文挑战第20天】英伟达开源了最新的多模态大型语言模型NVLM 1.0,在图像描述、视觉问答等视觉-语言任务上取得了突破性成果,同时在纯文本任务上也表现出色。该模型采用创新设计,结合了解码器-only和交叉注意力的优势,训练数据丰富且高质量。NVLM 1.0的发布推动了多模态技术的发展,但也面临计算资源需求高、数据质量和模型可解释性等挑战。
13 3
|
15天前
|
机器学习/深度学习 编解码 负载均衡
MoH:融合混合专家机制的高效多头注意力模型及其在视觉语言任务中的应用
本文提出了一种名为混合头注意力(MoH)的新架构,旨在提高Transformer模型中注意力机制的效率。MoH通过动态注意力头路由机制,使每个token能够自适应选择合适的注意力头,从而在减少激活头数量的同时保持或提升模型性能。实验结果显示,MoH在图像分类、类条件图像生成和大语言模型等多个任务中均表现出色,尤其在减少计算资源消耗方面有显著优势。
35 1
|
2月前
|
数据可视化 Swift
小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!
旗舰端侧模型面壁「小钢炮」系列进化为全新 MiniCPM 3.0 基座模型,再次以小博大,以 4B 参数,带来超越 GPT-3.5 的性能。并且,量化后仅 2GB 内存,端侧友好。
小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!
|
自然语言处理 测试技术 vr&ar
更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」
更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」
254 0
|
3月前
|
存储 机器学习/深度学习 人工智能
通义语音AI技术问题之传统的VAD模型的局限性定义如何解决
通义语音AI技术问题之传统的VAD模型的局限性定义如何解决
25 0
|
5月前
|
机器学习/深度学习 语音技术
多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再压缩
【6月更文挑战第12天】谷歌DeepMind的Zipper架构解决了多模态大模型灵活性问题,通过分解为单模态模型并用“压缩”过程组合,实现多模态生成。该方法允许独立训练每个模态,提升灵活性和可扩展性,适用于数据有限或领域特定的模态。Zipper利用交叉注意力机制融合模态输出,适用于图像描述、语音识别等任务。尽管需要更多计算资源且性能受限于单模态模型质量,但已在ASR和TTS领域展现潜力。论文链接:https://arxiv.org/pdf/2405.18669
61 3
|
6月前
|
机器学习/深度学习 人工智能
论文介绍:PreFLMR——扩展细粒度晚期交互多模态检索器以提升知识视觉问答性能
【5月更文挑战第3天】PreFLMR是扩展的细粒度晚期交互多模态检索器,用于提升知识视觉问答(KB-VQA)性能。基于FLMR,PreFLMR结合大型语言模型和检索增强生成,增强准确性与效率。通过M2KR框架全面评估,PreFLMR展示出色性能,尤其在E-VQA和Infoseek等任务。然而,其在预训练阶段未充分训练知识密集型任务,且仍有优化训练方法和数据集混合比例的空间。[论文链接](https://arxiv.org/abs/2402.08327)
161 1
|
6月前
|
人工智能 自然语言处理 测试技术
多模态大模型有了统一分割框架,华科PSALM多任务登顶,模型代码全开源
【4月更文挑战第24天】华中科技大学团队推出PSALM模型,革新多模态图像分割,实现语义、实例及交互式分割任务统一处理,提升效率。模型在多项基准测试中表现优异,支持零样本学习,适用于开放词汇分割等任务。代码开源促进研究,但面临复杂场景处理和计算资源优化的挑战。[链接](https://arxiv.org/abs/2403.14598)
204 2
|
6月前
|
人工智能 自然语言处理
性能超ChatGPT-3.5,专用金融分析的多模态大语言模型
【4月更文挑战第19天】不列颠哥伦比亚大学与Invertible AI合作开发的FinTral模型,是一款专为金融分析设计的多模态大型语言模型,超越ChatGPT-3.5,具备处理文本、数值、表格和图像数据的能力。通过直接偏好优化(DPO)提升性能,FinTral能执行多种金融任务,如情感分析、股票预测等,且在与GPT-3.5和GPT-4的对比中胜出。然而,其金融领域的专注可能限制了其跨领域应用,且依赖准确的实时数据。FinTral为金融分析提供高效工具,提升理解和决策支持的可靠性。
90 1