Florence-VL:微软和马里兰大学共同开源的多模态大语言模型

简介: Florence-VL是由微软和马里兰大学共同开源的多模态大语言模型,结合生成式视觉基础模型Florence-2和深度-广度融合技术,实现视觉与语言理解的深度融合,适用于多种下游任务。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 多模态理解:Florence-VL能够处理图像与文本数据,实现视觉与语言的深度融合。
  2. 视觉特征提取:使用Florence-2模型从图像中提取丰富的视觉特征。
  3. 深度-广度融合:结合不同层次和任务提示的视觉特征,适应多种下游任务。

正文(附运行示例)

Florence-VL 是什么

公众号: 蚝油菜花 - Florence-VL

Florence-VL是由微软和马里兰大学共同推出的多模态大型语言模型(MLLMs)。该模型通过生成式视觉基础模型Florence-2丰富视觉表示,能够捕捉图像的不同层次和方面的视觉特征,适应多样的下游任务。Florence-VL引入了深度-广度融合(DBFusion)技术,将不同深度和多个提示下提取的视觉特征进行融合,实现视觉与语言理解的深度融合。

Florence-VL的核心在于其创新的多模态理解和特征提取能力,使其在多个多模态和视觉中心的基准测试中实现了性能提升。

Florence-VL 的主要功能

  • 多模态理解:能够理解和处理图像与文本数据,实现视觉与语言的深度融合。
  • 视觉特征提取:使用Florence-2模型从图像中提取丰富的视觉特征。
  • 深度-广度融合(DBFusion):结合不同层次(深度)和不同任务提示(广度)的视觉特征,适应多种下游任务。
  • 性能提升:在多个多模态和视觉中心的基准测试中实现性能提升,包括VQA、OCR、图像描述等。

Florence-VL 的技术原理

  • 生成式视觉编码器:使用Florence-2作为视觉编码器,基于不同的任务提示生成视觉特征,适用于多种视觉任务。
  • 特征融合架构:引入新颖的特征融合架构,将从Florence-2提取的视觉特征与预训练的语言模型相结合。
  • 深度-广度融合(DBFusion)
    • 深度:整合来自不同层次的视觉特征,捕捉从低级到高级的概念细节。
    • 广度:使用多个任务特定的视觉特征,每个特征强调输入图像中的不同感知信息。
  • 端到端预训练:整个模型进行端到端预训练,实现视觉和语言模态之间的最佳对齐。
  • 微调:在预训练后,对投影层和语言模型进行微调,适应特定的下游任务。

如何运行 Florence-VL

环境安装

  1. 安装训练包:

    conda create -n florence-vl python=3.11 -y
    conda activate florence-vl
    pip install --upgrade pip  
    pip install -e .
    pip install -e ".[train]"
    pip install flash-attn --no-build-isolation
    
  2. 安装评估包:

    cd lmms-eval
    pip install -e .
    

数据集下载

  1. 预训练数据:

  2. 指令数据:

    • TODO。

训练脚本

使用llama 3.1-8B进行训练(phi-3类似)

scripts/florence-vl/llama/llama3.sh中设置基本的slurm信息,然后运行预训练和微调任务:

scripts/florence-vl/llama/pretrain_llama.sh中手动导出以下变量:

export NNODES=number of nodes
export DATA_PATH=/your/path/for/pretrain/data/json/file
export IMG=/your/image/folder
export OUTPUT=/checkpoint/save/path

scripts/florence-vl/llama/finetune_llama.sh中手动导出以下变量:

export NNODES=number of nodes
export DATA_PATH=/your/path/for/instuction/data/json/file
export IMG=/your/image/folder
export CKPT_PATH=/pretrain/checkpoint
export VIT_PATH=/pretrain/checkpoint/vision_tower
export OUTPUT=/checkpoint/save/path

评估脚本

使用lmms-eval进行评估:

export OPENAI_API_KEY=your key
python -m accelerate.commands.launch \
    --num_processes=4 \
    -m lmms_eval \
    --model llava \
    --model_args pretrained="/your/model/path/,conv_template=/choose/from/llama3/or/phi" \
    --tasks  textvqa_val,gqa,realworldqa,vizwiz_vqa_val,pope,scienceqa_img,mmvet,mme,seedbench,hallusion_bench_image,llava_in_the_wild,mathvista_testmini,docvqa_val,ocrbench,chartqa,ai2d,mmmu_val,mmbench_en_dev,infovqa_val,mmbench_cn_dev,mmstar \
    --batch_size 1 \
    --log_samples \
    --log_samples_suffix florence-vl \
    --output_path ./logs/

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
4月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
430 2
|
5月前
|
人工智能 算法 开发者
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
509 10
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
|
4月前
|
机器学习/深度学习 数据采集 人工智能
通义实验室Mobile-Agent-v3开源,全平台SOTA的GUI智能体,支持手机电脑等多平台交互
近日,通义实验室MobileAgent团队正式开源全新图形界面交互基础模型 GUI-Owl,并同步推出支持多智能体协同的自动化框架 Mobile-Agent-v3。该模型基于Qwen2.5-VL打造,在手机端与电脑端共8个GUI任务榜单中全面刷新开源模型性能纪录,达成全平台SOTA。
1538 2
|
5月前
|
数据采集 机器学习/深度学习 编解码
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
677 0
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
|
4月前
|
人工智能 Java 开发者
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
JManus是阿里开源的Java版OpenManus,基于Spring AI Alibaba框架,助力Java开发者便捷应用AI技术。支持多Agent框架、网页配置、MCP协议及PLAN-ACT模式,可集成多模型,适配阿里云百炼平台与本地ollama。提供Docker与源码部署方式,具备无限上下文处理能力,适用于复杂AI场景。当前仍在完善模型配置等功能,欢迎参与开源共建。
2135 58
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
|
5月前
智谱发布GLM-4.5V,全球开源多模态推理新标杆,Day0推理微调实战教程到!
视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外,逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。
891 0
|
5月前
|
编解码 算法 测试技术
MiniCPM-V4.0开源,多模态能力进化,手机可用,还有最全CookBook!
今天,面壁小钢炮新一代多模态模型 MiniCPM-V 4.0 正式开源。依靠 4B 参数,取得 在 OpenCompass、OCRBench、MathVista 等多个榜单上取得了同级 SOTA 成绩,且 实现了在手机上稳定、丝滑运行。此外,官方也正式开源了 推理部署工具 MiniCPM-V CookBook,帮助开发者面向不同需求、不同场景、不同设备,均可实现开箱即用的轻量、简易部署。
861 0
|
3月前
|
人工智能 自然语言处理 自动驾驶
超越文本:多模态大语言模型如何让AI“看世界
超越文本:多模态大语言模型如何让AI“看世界

热门文章

最新文章