Maya:基于 LLaVA 开发的多模态小模型,能理解和处理八种语言,适用于低资源环境

本文涉及的产品
图像搜索,7款服务类型 1个月
简介: Maya 是一个开源的多语言多模态模型,能够处理和理解八种不同语言,包括中文、法语、西班牙语、俄语、印地语、日语、阿拉伯语和英语。该模型基于LLaVA框架,通过指令微调和多语言数据集的预训练,提升了在视觉-语言任务中的表现,特别适用于低资源语言的内容生成和跨文化理解。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 多语言支持:Maya 支持八种语言,包括中文、法语、西班牙语、俄语、印地语、日语、阿拉伯语和英语。
  2. 多模态能力:结合图像和文本数据,执行图像描述、视觉问题回答等任务。
  3. 指令微调:通过指令微调提升模型对自然语言指令的理解和响应能力。

正文(附运行示例)

Maya 是什么

公众号: 蚝油菜花 - maya

Maya 是一个开源的多语言多模态模型,基于LLaVA框架开发。它通过指令微调和多语言数据集的预训练,扩展了模型在多种语言和文化背景下的能力。Maya 包含一个新创建的包含八种语言的预训练数据集,旨在提高视觉-语言任务中的文化和语言理解。

Maya 通过毒性分析和数据集过滤,确保训练数据的安全性和质量。它支持包括中文、法语、西班牙语、俄语、印地语、日语和阿拉伯语在内的多种语言,致力于提升低资源语言的AI内容生成质量。

Maya 的主要功能

  • 多语言支持:Maya 能处理和理解八种不同的语言,包括中文、法语、西班牙语、俄语、印地语、日语、阿拉伯语和英语,增强对低资源语言的支持。
  • 多模态能力:结合图像和文本数据,让机器基于自然语言理解视觉世界,执行图像描述、视觉问题回答等任务。
  • 指令微调:基于指令微调,更好地理解和响应自然语言指令,提升在实际应用中的性能和适应性。
  • 数据集创建与毒性过滤:创建多语言图像-文本预训练数据集,进行毒性分析和过滤,确保数据的安全性和质量。
  • 跨文化理解:基于多语言和多模态数据,更好地理解和处理不同文化背景下的视觉和语言信息。

Maya 的技术原理

  • 模型架构:基于LLaVA 1.5架构,使用Aya-23 8B模型作为多语言语言模型(LLM)和SigLIP作为视觉编码器,支持多语言和多模态输入。
  • 预训练数据集:创建包含558,000张图像的多语言图像-文本预训练数据集,涵盖八种语言,支持多语言视觉语言模型的开发。
  • 毒性分析:使用LLaVAGuard 7B和Toxic-BERT对数据集中的图像和文本进行毒性分析,识别和过滤掉不安全或有害的内容。
  • 预训练与微调:通过投影矩阵W将图像特征转换为语言特征,基于多轮对话数据进行预训练,优化图像和文本的对齐。在PALO 150K指令微调数据集上进行微调,进一步提升模型对指令的理解和响应能力。
  • 跨模态对齐:基于投影矩阵和训练策略,优化图像特征和语言特征之间的对齐,提高模型在视觉-语言任务中的表现。

如何运行 Maya

安装

以下步骤适用于 CUDA Version: 12.4 的环境。

  1. 克隆仓库并进入 Maya 目录:

    git clone https://github.com/nahidalam/maya
    cd maya
    
  2. 安装包:

    conda create -n maya python=3.10 -y
    conda activate maya
    pip install --upgrade pip  # 启用 PEP 660 支持
    pip install -e .
    
  3. 安装额外的训练包:

    pip install -e ".[train]"
    pip install flash-attn==2.6.3 --no-build-isolation --no-cache-dir
    

预训练

要预训练投影层,请按照以下步骤操作:

  • HuggingFace 获取预训练数据集,并将其放在 /dev/data/LLaVA_Pretrain 目录下。
  • 下载图像并将其放在 /dev/data/images 目录下:
    wget https://huggingface.co/datasets/liuhaotian/LLaVA-Pretrain/resolve/main/images.zip
    

运行预训练脚本:

bash scripts/maya/pretrain_aya_siglip.sh

指令微调

请从 MBZUAI/palo_multilingual_dataset 下载注释,并按照以下链接下载所有图像:

下载完成后,将数据组织如下:

instruction_tune_dataset
    ├── coco
    │   └── train2017
    ├── gqa
    │   └── images
    ├── ocr_vqa
    │   └── images
    ├── textvqa
    │   └── train_images
    └── vg
        ├── VG_100K
        └── VG_100K_2

palo_multilingual_dataset.json 放在 /dev/data/annotations/palo_multilingual_dataset.json 目录下。

确保在 scripts/maya/finetune_aya_siglip.sh 脚本中指定预训练模型的路径,然后运行:

bash scripts/maya/finetune_aya_siglip.sh

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
8月前
|
并行计算 Linux 计算机视觉
还在手工标注数据集?快来试一试自动化多模型标注大模型-gui交互式标注(部署运行教程-高效生产力)
还在手工标注数据集?快来试一试自动化多模型标注大模型-gui交互式标注(部署运行教程-高效生产力)
|
机器学习/深度学习 人工智能 算法
深度强化学习中实验环境-开源平台框架汇总
深度强化学习中实验环境-开源平台框架汇总
324 0
|
19天前
|
人工智能 编解码 自然语言处理
AGUVIS:指导模型实现 GUI 自动化训练框架,结合视觉-语言模型进行训练,实现跨平台自主 GUI 交互
AGUVIS 是香港大学与 Salesforce 联合推出的纯视觉 GUI 自动化框架,能够在多种平台上实现自主 GUI 交互,结合显式规划和推理,提升复杂数字环境中的导航和交互能力。
66 8
AGUVIS:指导模型实现 GUI 自动化训练框架,结合视觉-语言模型进行训练,实现跨平台自主 GUI 交互
|
7月前
|
人工智能 API 计算机视觉
吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务
【6月更文挑战第27天】吴恩达团队提出多模态模型新方法—多样本上下文学习,允许模型无需微调即可快速适应新任务。通过扩大上下文窗口至2000个示例,模型性能在图像分类等任务上显著提升,同时研究了批处理优化以减少计算成本。尽管面临计算开销和数据需求的挑战,但该方法为AI的高效泛化开辟了新途径。[论文链接:https://arxiv.org/abs/2405.09798]
131 5
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
扩散引导语言建模(DGLM):一种可控且高效的AI对齐方法
DGLM(Diffusion Guided Language Modeling)是一种新型框架,结合了自回归模型的流畅性和扩散模型的灵活性,解决了现有引导生成方法的局限性。DGLM通过扩散网络生成语义提案,并使用轻量级提示生成器将嵌入转化为软提示,引导自回归解码器生成文本。该方法无需微调模型权重,易于控制新属性,并在多个基准数据集上表现出色。实验结果显示,DGLM在毒性缓解、情感控制和组合控制等方面优于现有方法,为可控文本生成提供了新的方向。
67 10
扩散引导语言建模(DGLM):一种可控且高效的AI对齐方法
|
4月前
|
机器学习/深度学习 数据可视化 UED
黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理
【9月更文挑战第4天】Transformer Explainer是一款基于网页的交互式可视化工具,专为帮助用户理解复杂的Transformer模型而设计。通过多层次抽象、实时推理及互动实验,以及无需安装即可使用的便捷性,此工具选取GPT-2作为教学模型,降低了学习门槛并提升了教育普及度。用户可以通过输入自定义文本观察预测过程,深入了解内部组件的工作原理。此外,它还减少了认知负荷,增强了互动学习体验。未来,该工具将在复杂性管理和性能优化方面继续改进,并通过用户研究进一步提升功能和可用性。[论文地址:https://arxiv.org/pdf/2408.04619]
119 1
|
6月前
|
存储 人工智能 自然语言处理
社区供稿 | 源大模型的快速部署与高效推理——GGUF格式模型介绍与使用教程
在人工智能领域,大型语言模型的发展日新月异,它们在自然语言处理、机器翻译、智能助手等多个领域展现出了前所未有的能力。
社区供稿 | 源大模型的快速部署与高效推理——GGUF格式模型介绍与使用教程
|
5月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
全面解析TensorFlow Lite:从模型转换到Android应用集成,教你如何在移动设备上轻松部署轻量级机器学习模型,实现高效本地推理
【8月更文挑战第31天】本文通过技术综述介绍了如何使用TensorFlow Lite将机器学习模型部署至移动设备。从创建、训练模型开始,详细演示了模型向TensorFlow Lite格式的转换过程,并指导如何在Android应用中集成该模型以实现预测功能,突显了TensorFlow Lite在资源受限环境中的优势及灵活性。
516 0
|
8月前
|
数据可视化 开发工具 计算机视觉
LabVIEW视觉采集软件(VAS)、视觉生成器(VB)和视觉开发模块(VDM)之间有什么不同
LabVIEW视觉采集软件(VAS)、视觉生成器(VB)和视觉开发模块(VDM)之间有什么不同
73 1
|
8月前
|
机器学习/深度学习 搜索推荐 物联网
微软开源创新LoRA组合方法,增强文生图复杂细节控制
微软研究团队推出Multi-LoRA Composition技术,改善文本到图像模型的细节控制。利用低秩适应(LoRA)提升图像生成精度,通过LORA SWITCH和LORA COMPOSITE解决组合复杂图像的挑战。新方法在ComposLoRA平台上测试,性能优于基线,为图像生成和个性化内容创作开辟新途径。尽管有学习曲线和定制需求优化的问题,但该研究仍为领域带来显著进步。
446 3
微软开源创新LoRA组合方法,增强文生图复杂细节控制

热门文章

最新文章