Florence-VL:微软和马里兰大学共同开源的多模态大语言模型

本文涉及的产品
图像搜索,7款服务类型 1个月
简介: Florence-VL是由微软和马里兰大学共同开源的多模态大语言模型,结合生成式视觉基础模型Florence-2和深度-广度融合技术,实现视觉与语言理解的深度融合,适用于多种下游任务。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 多模态理解:Florence-VL能够处理图像与文本数据,实现视觉与语言的深度融合。
  2. 视觉特征提取:使用Florence-2模型从图像中提取丰富的视觉特征。
  3. 深度-广度融合:结合不同层次和任务提示的视觉特征,适应多种下游任务。

正文(附运行示例)

Florence-VL 是什么

公众号: 蚝油菜花 - Florence-VL

Florence-VL是由微软和马里兰大学共同推出的多模态大型语言模型(MLLMs)。该模型通过生成式视觉基础模型Florence-2丰富视觉表示,能够捕捉图像的不同层次和方面的视觉特征,适应多样的下游任务。Florence-VL引入了深度-广度融合(DBFusion)技术,将不同深度和多个提示下提取的视觉特征进行融合,实现视觉与语言理解的深度融合。

Florence-VL的核心在于其创新的多模态理解和特征提取能力,使其在多个多模态和视觉中心的基准测试中实现了性能提升。

Florence-VL 的主要功能

  • 多模态理解:能够理解和处理图像与文本数据,实现视觉与语言的深度融合。
  • 视觉特征提取:使用Florence-2模型从图像中提取丰富的视觉特征。
  • 深度-广度融合(DBFusion):结合不同层次(深度)和不同任务提示(广度)的视觉特征,适应多种下游任务。
  • 性能提升:在多个多模态和视觉中心的基准测试中实现性能提升,包括VQA、OCR、图像描述等。

Florence-VL 的技术原理

  • 生成式视觉编码器:使用Florence-2作为视觉编码器,基于不同的任务提示生成视觉特征,适用于多种视觉任务。
  • 特征融合架构:引入新颖的特征融合架构,将从Florence-2提取的视觉特征与预训练的语言模型相结合。
  • 深度-广度融合(DBFusion)
    • 深度:整合来自不同层次的视觉特征,捕捉从低级到高级的概念细节。
    • 广度:使用多个任务特定的视觉特征,每个特征强调输入图像中的不同感知信息。
  • 端到端预训练:整个模型进行端到端预训练,实现视觉和语言模态之间的最佳对齐。
  • 微调:在预训练后,对投影层和语言模型进行微调,适应特定的下游任务。

如何运行 Florence-VL

环境安装

  1. 安装训练包:

    conda create -n florence-vl python=3.11 -y
    conda activate florence-vl
    pip install --upgrade pip  
    pip install -e .
    pip install -e ".[train]"
    pip install flash-attn --no-build-isolation
    
  2. 安装评估包:

    cd lmms-eval
    pip install -e .
    

数据集下载

  1. 预训练数据:

  2. 指令数据:

    • TODO。

训练脚本

使用llama 3.1-8B进行训练(phi-3类似)

scripts/florence-vl/llama/llama3.sh中设置基本的slurm信息,然后运行预训练和微调任务:

scripts/florence-vl/llama/pretrain_llama.sh中手动导出以下变量:

export NNODES=number of nodes
export DATA_PATH=/your/path/for/pretrain/data/json/file
export IMG=/your/image/folder
export OUTPUT=/checkpoint/save/path

scripts/florence-vl/llama/finetune_llama.sh中手动导出以下变量:

export NNODES=number of nodes
export DATA_PATH=/your/path/for/instuction/data/json/file
export IMG=/your/image/folder
export CKPT_PATH=/pretrain/checkpoint
export VIT_PATH=/pretrain/checkpoint/vision_tower
export OUTPUT=/checkpoint/save/path

评估脚本

使用lmms-eval进行评估:

export OPENAI_API_KEY=your key
python -m accelerate.commands.launch \
    --num_processes=4 \
    -m lmms_eval \
    --model llava \
    --model_args pretrained="/your/model/path/,conv_template=/choose/from/llama3/or/phi" \
    --tasks  textvqa_val,gqa,realworldqa,vizwiz_vqa_val,pope,scienceqa_img,mmvet,mme,seedbench,hallusion_bench_image,llava_in_the_wild,mathvista_testmini,docvqa_val,ocrbench,chartqa,ai2d,mmmu_val,mmbench_en_dev,infovqa_val,mmbench_cn_dev,mmstar \
    --batch_size 1 \
    --log_samples \
    --log_samples_suffix florence-vl \
    --output_path ./logs/

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
7月前
|
人工智能 自然语言处理 API
Google Gemma 模型服务:开放的生成式 AI 模型服务
Google Gemma 模型服务:开放的生成式 AI 模型服务
220 4
|
7月前
|
文字识别 前端开发
CodeFuse-VLM 开源,支持多模态多任务预训练/微调
随着huggingface开源社区的不断更新,会有更多的vision encoder 和 LLM 底座发布,这些vision encoder 和 LLM底座都有各自的强项,例如 code-llama 适合生成代码类任务,但是不适合生成中文类的任务,因此用户常常需要根据vision encoder和LLM的特长来搭建自己的多模态大语言模型。针对多模态大语言模型种类繁多的落地场景,我们搭建了CodeFuse-VLM 框架,支持多种视觉模型和语言大模型,使得MFT-VLM可以适应不同种类的任务。
720 0
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
GLM-Edge:智谱开源的端侧大语言和多模态系列模型
GLM-Edge是智谱开源的一系列端侧部署优化的大语言对话模型和多模态理解模型,旨在实现模型性能、实机推理效果和落地便利性之间的最佳平衡。该系列模型支持在手机、车机和PC等端侧设备上高效运行,适用于智能助手、聊天机器人、图像标注等多种应用场景。
38 7
GLM-Edge:智谱开源的端侧大语言和多模态系列模型
|
11天前
|
数据采集 文字识别 测试技术
智谱开源端侧大语言和多模态模型GLM-Edge系列!
GLM-Edge系列模型是由智谱开源,专为端侧应用设计的大语言对话模型和多模态理解模型,包括GLM-Edge-1.5B-Chat、GLM-Edge-4B-Chat、GLM-Edge-V-2B和GLM-Edge-V-5B四种尺寸。这些模型针对手机、车机及PC等不同平台进行了优化,通过量化的技术手段,实现了高效运行。例如,在高通骁龙8 Elite平台上,1.5B对话模型和2B多模态模型能够达到每秒60 tokens以上的解码速度,而通过应用投机采样技术,这一数字可提升至100 tokens以上。
|
6月前
|
人工智能 JSON 自然语言处理
智谱AI GLM4开源!支持多模态&长序列,魔搭推理、微调最佳实践来啦!
GLM-4-9B是智谱AI推出的新一代预训练模型GLM-4系列的开源版本,它在多个数据集上的测试中表现出高绩效,包括语义理解、数学问题解决、推理和代码理解等方面。GLM-4-9B模型有四个变体:基础版GLM-4-9B(8K)、对话版GLM-4-9B-Chat(128K)、超长上下文版GLM-4-9B-Chat-1M(1M)和多模态版GLM-4V-9B-Chat(8K)。用户可以通过魔搭社区提供的链接体验这些模型,包括在CPU上运行的版本和支持vLLM推理的版本。
智谱AI GLM4开源!支持多模态&长序列,魔搭推理、微调最佳实践来啦!
|
7月前
|
人工智能 安全 测试技术
微软开源4.2B参数多模态SLM模型Phi-3-vision,魔搭社区推理、微调实战教程来啦!
在 Microsoft Build 2024 上,微软持续开源了 Phi-3 系列的新模型们。包括 Phi-3-vision,这是一种将语言和视觉功能结合在一起的多模态模型。
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会“图的语言”
【5月更文挑战第1天】谷歌在ICLR 2024提出新方法,使大语言模型(LLM)性能提升高达60%,通过结合图神经网络(GNN),LLM学会理解与生成“图的语言”,打破处理复杂任务的局限。此创新模型适用于社交网络分析等领域,但面临计算资源需求大和模型解释性问题。研究强调需确保LLM在道德和法律框架内使用。论文链接:https://openreview.net/pdf?id=IuXR1CCrSi
249 3
|
7月前
|
人工智能 安全 开发者
谷歌最新的开源大模型Gemma
【2月更文挑战第11天】谷歌最新的开源大模型Gemma
106 1
谷歌最新的开源大模型Gemma
|
自然语言处理 物联网 算法框架/工具
开源大语言模型(LLM)汇总
随着ChatGPT的火爆,越来越多人希望在本地运行一个大语言模型。为此我维护了这个开源大语言模型汇总,跟踪每天不发的大语言模型和精调语言模型。
3006 0
开源大语言模型(LLM)汇总
|
7月前
|
人工智能 数据可视化 物联网
Mistral AI发布首个开源MoE模型,魔搭社区推理微调最佳实践来啦!
继Mistral 7B 后,Mistral AI 近日又放出一记大招——发布了引爆开源社区的首个 MoE 开源模型 Mixtral 8x7B,在 Apache 2.0 许可证下可商用。

热门文章

最新文章