Pangea:卡内基梅隆大学开源的多语言多模态大语言模型

本文涉及的产品
图像搜索,7款服务类型 1个月
简介: Pangea是由卡内基梅隆大学团队开发的多语言多模态大型语言模型,支持39种语言,包含高质量英文指令、机器翻译指令及文化相关任务。该模型在多语言和文化背景下的性能超越现有开源模型,适用于多语言客户服务、教育和学习、跨文化交流等多个应用场景。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

多语言支持:能理解和生成39种不同语言的文本。
多模态理解:除文本外,能处理和理解图像。
跨文化覆盖:在训练中包含与文化相关的多模态任务。

正文(附运行示例)

Pangea 是什么

Pangea是由卡内基梅隆大学团队推出的多语言多模态大型语言模型(LLM),旨在提升全球语言和文化多样性的覆盖。模型包含600万条指令的多样化数据集,支持39种语言,包含高质量英文指令、机器翻译指令及文化相关任务。

Pangea基于包含14个数据集、覆盖47种语言的PangeaABench评估套件进行性能评估。Pangea在多语言和文化背景下的性能超越现有开源模型(如Llava-1.5-7B、Llava-Next-7B)。研究发现英语数据比例、语言流行度和多模态训练样本数量对性能有显著影响。

公众号: 蚝油菜花 - Pangea

Pangea 的主要功能

  • 多语言支持:能理解和生成39种不同语言的文本,在多语言交流和处理中非常有用。
  • 多模态理解:除文本外,能处理和理解图像,在图像描述、视觉问答等任务中表现出色。
  • 跨文化覆盖:在训练中包含与文化相关的多模态任务,有助于模型更好地理解和适应不同文化背景。
  • 高质量指令遵循:Pangea在训练中使用高质量的英文指令,及经过精心机器翻译的指令,确保模型在不同语言中的准确性和一致性。

Pangea 的技术原理

  • 数据集构建:基于Pangea数据集,一个包含600万条指令的多语言数据集,覆盖39种语言。
  • 机器翻译:为解决多语言数据的稀缺问题,用机器翻译技术将高质量英文指令翻译成其他语言。
  • 文化相关任务:在训练中包含与文化相关的多模态任务,提高模型对文化差异的理解和适应性。
  • 评估套件:PangeaABench是包含14个数据集、覆盖47种语言的评估套件,用在全面评估模型在多语言和多模态任务中的表现。
  • 模型架构:基于LLaVA-Next架构,用Qwen2-7B-Instruct作为语言模型的骨干,为模型提供强大的语言理解和生成能力。

如何运行 Pangea

设置环境

  1. 克隆仓库:使用Git克隆仓库到本地环境。
    git clone https://github.com/neulab/Pangea.git
    
  2. 安装依赖:确保安装了所需的依赖。
    cd Pangea/train/LLaVA-NeXT
    pip install -e ".[train]"
    

运行示例

在安装了所需包后,可以运行示例Python代码来使用Pangea-7B。

cd Pangea/predict
python predict_all.py # 可以评估多模态输入和纯文本输入
python predict_multimodal.py # 可以评估多模态输入
python predict_text_only.py # 可以评估纯文本输入

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘Google Gemini:AI界的多模态革命者与ChatGPT-4的较量
揭秘Google Gemini:AI界的多模态革命者与ChatGPT-4的较量
228 0
|
1月前
|
机器学习/深度学习 人工智能 计算机视觉
ConsisID:北大联合鹏城实验室等机构推出的文本到视频生成模型
ConsisID是由北京大学和鹏城实验室等机构联合推出的文本到视频生成模型,专注于保持视频中人物身份的一致性。该模型采用频率分解技术和免调优的Diffusion Transformer架构,能够在多个评估维度上超越现有技术,推动身份一致性视频生成技术的发展。
144 73
ConsisID:北大联合鹏城实验室等机构推出的文本到视频生成模型
|
27天前
|
人工智能 编解码 虚拟化
See3D:智源研究院开源的无标注视频学习 3D 生成模型
See3D 是智源研究院推出的无标注视频学习 3D 生成模型,能够从大规模无标注的互联网视频中学习 3D 先验,实现从视频中生成 3D 内容。See3D 采用视觉条件技术,支持从文本、单视图和稀疏视图到 3D 的生成,并能进行 3D 编辑与高斯渲染。
92 13
See3D:智源研究院开源的无标注视频学习 3D 生成模型
|
25天前
|
数据采集 人工智能 编解码
书生·万象InternVL 2.5:上海 AI Lab 开源的多模态大语言模型,超越了目前许多商业模型
书生·万象InternVL 2.5是由上海AI实验室OpenGVLab团队推出的开源多模态大语言模型系列。该模型在多模态理解基准(MMMU)上表现优异,超越了许多商业模型,适用于图像和视频分析、视觉问答、文档理解和多语言处理等多个领域。
79 7
书生·万象InternVL 2.5:上海 AI Lab 开源的多模态大语言模型,超越了目前许多商业模型
|
1月前
|
人工智能 测试技术 API
FlagEvalMM:智源开源的多模态模型评测框架
FlagEvalMM 是由北京智源人工智能研究院开源的多模态模型评测框架,旨在全面评估处理文本、图像、视频等多种模态的模型。该框架支持多种任务和指标,采用评测与模型推理解耦的设计,提升评测效率,便于快速适配新任务和模型。
72 11
FlagEvalMM:智源开源的多模态模型评测框架
|
21天前
|
人工智能 自然语言处理 物联网
AI Safeguard联合 CMU,斯坦福提出端侧多模态小模型
随着人工智能的快速发展,多模态大模型(MLLMs)在计算机视觉、自然语言处理和多模态任务中扮演着重要角色。
|
6月前
|
编解码 文字识别 计算机视觉
寒武纪1号诞生:谢赛宁Yann LeCun团队发布最强开源多模态LLM
【7月更文挑战第10天】【寒武纪1号】- 谢赛宁、Yann LeCun团队发布开源多模态LLM,含8B至34B规模模型,创新空间视觉聚合器(SVA)提升视觉-语言集成,建立新基准CV-Bench及大规模训练数据集Cambrian-7M。在多模态任务中表现出色,尤其在高分辨率图像处理上,但面临高分辨率信息处理和部分视觉任务评估的局限。[链接](https://arxiv.org/pdf/2406.16860)
138 1
|
7月前
|
人工智能 人机交互 语音技术
让大模型更懂你的情绪——通义实验室与中科院自动化所联合开源中英双语共情语音对话模型BLSP-Emo
BLSP-Emo模型展示了情感智能在人机交互中的重要性,未来的多模态模型将更加注重情感的识别和表达,使得机器能够更加准确地理解和回应用户的情感状态,甚至生成富有情感的语音反馈。同时,BLSP-Emo展示了将副语言信号对齐到大语言模型语义空间的可能性,我们期待着更加人性化、更具有共情力的对话交互模型的出现。
|
机器学习/深度学习 人工智能 自然语言处理
剑桥、腾讯AI Lab等提出大语言模型PandaGPT:一个模型统一六种模态
剑桥、腾讯AI Lab等提出大语言模型PandaGPT:一个模型统一六种模态
170 0
|
Web App开发 人工智能 测试技术
中文大语言模型赶考:商汤与上海AI Lab等新发布「书生·浦语」
中文大语言模型赶考:商汤与上海AI Lab等新发布「书生·浦语」
182 0

热门文章

最新文章