Maya:基于 LLaVA 开发的多模态小模型,能理解和处理八种语言,适用于低资源环境

简介: Maya 是一个开源的多语言多模态模型,能够处理和理解八种不同语言,包括中文、法语、西班牙语、俄语、印地语、日语、阿拉伯语和英语。该模型基于LLaVA框架,通过指令微调和多语言数据集的预训练,提升了在视觉-语言任务中的表现,特别适用于低资源语言的内容生成和跨文化理解。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 多语言支持:Maya 支持八种语言,包括中文、法语、西班牙语、俄语、印地语、日语、阿拉伯语和英语。
  2. 多模态能力:结合图像和文本数据,执行图像描述、视觉问题回答等任务。
  3. 指令微调:通过指令微调提升模型对自然语言指令的理解和响应能力。

正文(附运行示例)

Maya 是什么

公众号: 蚝油菜花 - maya

Maya 是一个开源的多语言多模态模型,基于LLaVA框架开发。它通过指令微调和多语言数据集的预训练,扩展了模型在多种语言和文化背景下的能力。Maya 包含一个新创建的包含八种语言的预训练数据集,旨在提高视觉-语言任务中的文化和语言理解。

Maya 通过毒性分析和数据集过滤,确保训练数据的安全性和质量。它支持包括中文、法语、西班牙语、俄语、印地语、日语和阿拉伯语在内的多种语言,致力于提升低资源语言的AI内容生成质量。

Maya 的主要功能

  • 多语言支持:Maya 能处理和理解八种不同的语言,包括中文、法语、西班牙语、俄语、印地语、日语、阿拉伯语和英语,增强对低资源语言的支持。
  • 多模态能力:结合图像和文本数据,让机器基于自然语言理解视觉世界,执行图像描述、视觉问题回答等任务。
  • 指令微调:基于指令微调,更好地理解和响应自然语言指令,提升在实际应用中的性能和适应性。
  • 数据集创建与毒性过滤:创建多语言图像-文本预训练数据集,进行毒性分析和过滤,确保数据的安全性和质量。
  • 跨文化理解:基于多语言和多模态数据,更好地理解和处理不同文化背景下的视觉和语言信息。

Maya 的技术原理

  • 模型架构:基于LLaVA 1.5架构,使用Aya-23 8B模型作为多语言语言模型(LLM)和SigLIP作为视觉编码器,支持多语言和多模态输入。
  • 预训练数据集:创建包含558,000张图像的多语言图像-文本预训练数据集,涵盖八种语言,支持多语言视觉语言模型的开发。
  • 毒性分析:使用LLaVAGuard 7B和Toxic-BERT对数据集中的图像和文本进行毒性分析,识别和过滤掉不安全或有害的内容。
  • 预训练与微调:通过投影矩阵W将图像特征转换为语言特征,基于多轮对话数据进行预训练,优化图像和文本的对齐。在PALO 150K指令微调数据集上进行微调,进一步提升模型对指令的理解和响应能力。
  • 跨模态对齐:基于投影矩阵和训练策略,优化图像特征和语言特征之间的对齐,提高模型在视觉-语言任务中的表现。

如何运行 Maya

安装

以下步骤适用于 CUDA Version: 12.4 的环境。

  1. 克隆仓库并进入 Maya 目录:

    git clone https://github.com/nahidalam/maya
    cd maya
    
  2. 安装包:

    conda create -n maya python=3.10 -y
    conda activate maya
    pip install --upgrade pip  # 启用 PEP 660 支持
    pip install -e .
    
  3. 安装额外的训练包:

    pip install -e ".[train]"
    pip install flash-attn==2.6.3 --no-build-isolation --no-cache-dir
    

预训练

要预训练投影层,请按照以下步骤操作:

  • HuggingFace 获取预训练数据集,并将其放在 /dev/data/LLaVA_Pretrain 目录下。
  • 下载图像并将其放在 /dev/data/images 目录下:
    wget https://huggingface.co/datasets/liuhaotian/LLaVA-Pretrain/resolve/main/images.zip
    

运行预训练脚本:

bash scripts/maya/pretrain_aya_siglip.sh

指令微调

请从 MBZUAI/palo_multilingual_dataset 下载注释,并按照以下链接下载所有图像:

下载完成后,将数据组织如下:

instruction_tune_dataset
    ├── coco
    │   └── train2017
    ├── gqa
    │   └── images
    ├── ocr_vqa
    │   └── images
    ├── textvqa
    │   └── train_images
    └── vg
        ├── VG_100K
        └── VG_100K_2

palo_multilingual_dataset.json 放在 /dev/data/annotations/palo_multilingual_dataset.json 目录下。

确保在 scripts/maya/finetune_aya_siglip.sh 脚本中指定预训练模型的路径,然后运行:

bash scripts/maya/finetune_aya_siglip.sh

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
3月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
327 2
|
3月前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
1625 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
2月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
307 120
|
2月前
|
人工智能 前端开发 JavaScript
最佳实践3:用通义灵码开发一款 App
本示例演示使用通义灵码,基于React Native与Node.js开发跨平台类通义App,重点展示iOS端实现。涵盖前端页面生成、后端代码库自动生成、RTK Query通信集成及Qwen API调用全过程,体现灵码在全栈开发中的高效能力。(238字)
326 11
|
3月前
|
自然语言处理 机器人 图形学
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
腾讯混元图像3.0,真的来了——开源,免费开放使用。 正式介绍一下:混元图像3.0(HunyuanImage 3.0),是首个工业级原生多模态生图模型,参数规模80B,也是目前测评效果最好、参数量最大的开源生图模型,效果可对…
848 2
腾讯混元图像3.0正式开源发布!80B,首个工业级原生多模态生图模型
|
2月前
|
缓存 物联网 PyTorch
使用TensorRT LLM构建和运行Qwen模型
本文档介绍如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen模型,涵盖模型转换、引擎构建、量化推理及LoRA微调等操作,并提供详细的代码示例与支持矩阵。
614 2
|
2月前
|
存储 缓存 算法
淘宝买家秀 API 深度开发:多模态内容解析与合规推荐技术拆解
本文详解淘宝买家秀接口(taobao.reviews.get)的合规调用、数据标准化与智能推荐全链路方案。涵盖权限申请、多模态数据清洗、情感分析、混合推荐模型及缓存优化,助力开发者提升审核效率60%、商品转化率增长28%,实现UGC数据高效变现。
|
2月前
|
存储 机器学习/深度学习 人工智能
54_模型优化:大模型的压缩与量化
随着大型语言模型(LLM)的快速发展,模型规模呈指数级增长,从最初的数亿参数到如今的数千亿甚至万亿参数。这种规模扩张带来了惊人的能源消耗和训练成本,同时也给部署和推理带来了巨大挑战。2025年,大模型的"瘦身"已成为行业发展的必然趋势。本文将深入剖析大模型压缩与量化的核心技术、最新进展及工程实践,探讨如何通过创新技术让大模型在保持高性能的同时实现轻量化部署,为企业和开发者提供全面的技术指导。

热门文章

最新文章