寒武纪1号诞生:谢赛宁Yann LeCun团队发布最强开源多模态LLM

简介: 【7月更文挑战第10天】【寒武纪1号】- 谢赛宁、Yann LeCun团队发布开源多模态LLM,含8B至34B规模模型,创新空间视觉聚合器(SVA)提升视觉-语言集成,建立新基准CV-Bench及大规模训练数据集Cambrian-7M。在多模态任务中表现出色,尤其在高分辨率图像处理上,但面临高分辨率信息处理和部分视觉任务评估的局限。[链接](https://arxiv.org/pdf/2406.16860)

来自纽约大学的谢赛宁(Saining Xie)和Yann LeCun领导的团队最近发布了名为寒武纪1号(Cambrian-1)的多模态大型语言模型(MLLM)。这项研究旨在解决当前多模态LLM在视觉理解和语言理解方面的局限性,并推动多模态LLM在真实世界场景中的应用。

寒武纪1号是一系列多模态LLM的集合,包括8B、13B和34B三种不同规模的模型。这些模型旨在通过结合视觉和语言信息,实现更强大的多模态理解和生成能力。

首先,寒武纪1号引入了一种名为“空间视觉聚合器”(SVA)的新型连接器设计,用于将视觉特征与LLM进行集成。SVA通过在LLM的不同层之间多次聚合视觉信息,并引入空间归纳偏置,实现了更灵活和高效的视觉信息集成。

其次,寒武纪1号团队对现有的多模态LLM基准进行了深入分析,并提出了一种名为CV-Bench的新基准。CV-Bench旨在通过将经典的视觉任务重新表述为视觉问答(VQA)问题,更全面地评估多模态LLM的视觉理解能力。

此外,寒武纪1号团队还对多模态LLM的训练数据进行了深入研究,并提出了一种名为Cambrian-7M的大规模、高质量的训练数据集。该数据集通过平衡不同数据源的比例、过滤低质量数据和添加系统提示等方式进行了精心设计,以改善多模态LLM的训练效果。

在实验中,寒武纪1号在多个多模态LLM基准上取得了最先进的性能,包括在OCR和ChartQA等高分辨率图像处理任务上的显著改进。此外,寒武纪1号还在一些真实世界的应用场景中进行了测试,如图像描述生成和视觉问答,并展示了其在处理复杂视觉信息方面的潜力。

然而,寒武纪1号也存在一些局限性。首先,尽管SVA在聚合视觉信息方面取得了改进,但仍然存在信息丢失的风险,特别是在处理高分辨率图像时。其次,尽管CV-Bench在评估多模态LLM的视觉理解能力方面取得了进展,但仍然存在一些未被覆盖的视觉任务,如视频理解和三维场景理解。

论文地址:https://arxiv.org/pdf/2406.16860

目录
相关文章
可控细节的长文档摘要,探索开源LLM工具与实践
本文通过将文档分为几部分来解决这个问题,然后分段生成摘要。在对大语言模型进行多次查询后,可以重建完整的摘要。通过控制文本块的数量及其大小,我们最终可以控制输出中的细节级别。
|
3月前
|
Kubernetes 搜索推荐 API
|
26天前
|
算法 API 数据中心
魔搭社区利用 NVIDIA TensorRT-LLM 加速开源大语言模型推理
魔搭社区于 2022 年 11 月初创建,首次在业界提出了 “模型即服务”( MaaS, Model as a Service)的理念。
|
2月前
|
人工智能 自然语言处理 算法
LLM主流开源代表模型(二)
随着ChatGPT迅速火爆,引发了大模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款大模型发布及应用。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM主流开源代表模型(一)
随着ChatGPT迅速火爆,引发了大模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款大模型发布及应用。
|
3月前
|
缓存 人工智能 自然语言处理
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践
|
2月前
|
人工智能 自然语言处理 算法
分享几个.NET开源的AI和LLM相关项目框架
分享几个.NET开源的AI和LLM相关项目框架
|
3月前
|
人工智能 自然语言处理 算法
分享几个.NET开源的AI和LLM相关项目框架
分享几个.NET开源的AI和LLM相关项目框架
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
|
10天前
|
人工智能 自然语言处理
公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4
【8月更文挑战第3天】新论文提出“公理训练”法,使仅有6700万参数的语言模型掌握因果推理,性能媲美万亿级GPT-4。研究通过大量合成数据示例教授模型因果公理,实现有效推理并泛化至复杂图结构。尽管面临合成数据需求大及复杂关系处理限制,此法仍为语言模型的因果理解开辟新途径。[链接: https://arxiv.org/pdf/2407.07612]
21 1

热门文章

最新文章

下一篇
云函数