Ola:清华联合腾讯等推出的全模态语言模型!实现对文本、图像、视频和音频的全面理解

本文涉及的产品
图像搜索,任选一个服务类型 1个月
简介: Ola 是由清华大学、腾讯 Hunyuan 研究团队和新加坡国立大学 S-Lab 合作开发的全模态语言模型,支持文本、图像、视频和音频输入,并具备实时流式解码功能。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


大家好,我是蚝油菜花,今天跟大家分享一下 Ola 这个由清华大学、腾讯等团队联合推出的全模态语言模型。

🚀 快速阅读

Ola 是一个支持多种模态输入的语言模型,旨在实现对文本、图像、视频和音频的全面理解。

  1. 核心功能:支持多模态输入和实时流式解码。
  2. 技术原理:采用渐进式模态对齐策略,逐步扩展语言模型支持的模态,从图像和文本开始,再引入语音和视频数据。

Ola 是什么

Ola

Ola 是由清华大学、腾讯 Hunyuan 研究团队和新加坡国立大学 S-Lab 合作开发的全模态语言模型。该模型通过渐进式模态对齐策略,逐步扩展语言模型支持的模态,从图像和文本开始,再引入语音和视频数据,最终实现对多种模态的理解。Ola 的架构支持全模态输入,包括文本、图像、视频和音频,能够同时处理这些输入。

Ola 的设计不仅注重多模态输入的支持,还特别强调用户友好的实时流式解码功能,用于提升交互体验。这种设计使得 Ola 在多模态基准测试中表现出色,超越了现有的开源全模态 LLMs,在某些任务上甚至与专门的单模态模型相当。

Ola 的主要功能

  • 多模态理解:支持文本、图像、视频和音频四种模态的输入,能同时处理这些输入,在理解任务中表现出色。
  • 实时流式解码:支持用户友好的实时流式解码,可用于文本和语音生成,提供流畅的交互体验。
  • 渐进式模态对齐:通过逐步扩展语言模型支持的模态,从图像和文本开始,再引入语音和视频数据,实现对多种模态的理解。
  • 高性能表现:在多模态基准测试中性能卓越,超越了现有的开源全模态 LLMs,在某些任务上与专门的单模态模型相当。

Ola 的技术原理

Ola-Training

  • 渐进式模态对齐策略:Ola 的训练流程从最基础的模态(图像和文本)开始,逐步引入语音数据(连接语言和音频知识)以及视频数据(连接所有模态)。这种渐进式学习方法使模型能逐步扩展其模态理解能力,保持了跨模态对齐数据的规模相对较小,降低了从现有视觉-语言模型开发全模态模型的难度和成本。
  • 多模态输入与实时流式解码:Ola 支持全模态输入,包括文本、图像、视频和音频,能同时处理这些输入。Ola 设计了逐句解码方案,用于流式语音生成,支持用户友好的实时交互体验。
  • 跨模态数据的高效利用:为了更好地捕捉模态之间的关系,Ola 的训练数据包括传统的视觉和音频数据,还设计了跨模态视频-音频数据。数据通过视频中的视觉和音频信息构建桥梁,帮助模型学习模态之间的内在联系。
  • 高性能架构设计:Ola 的架构支持高效的多模态处理,包括视觉编码器、音频编码器、文本解码器和语音解码器。通过局部-全局注意力池化(Local-Global Attention Pooling)等技术,模型能更好地融合不同模态的特征。

如何运行 Ola

1. 克隆仓库

git clone https://github.com/Ola-Omni/Ola
cd Ola

2. 安装依赖包

conda create -n ola python=3.10 -y
conda activate ola
pip install --upgrade pip
pip install -e .

3. 安装额外的训练包

pip install -e ".[train]"
pip install flash-attn --no-build-isolation

4. 下载模型权重

下载 Ola-7b 模型权重,可以从HuggingFace获取,或者直接使用在线权重。

5. 下载音频编码器

HuggingFace下载音频编码器权重 large-v3.ptBEATs_iter3_plus_AS2M_finetuned_on_AS2M_cpt2.pt,并将它们放置在 path/to/Ola/pretrained 目录下。

6. 运行推理脚本

  • 文本与图像理解

    python3 inference/infer.py --image_path *.png,jpg --text user_instruction
    
  • 文本与视频理解

    python3 inference/infer.py --video_path *.mp4 --text user_instruction
    
  • 文本与音频理解

    python3 inference/infer.py --audio_path *.wav,mp3 --text user_instruction
    
  • 音频与图像理解

    python3 inference/infer.py --audio_path *.png,jpg --audio_path *.wav,mp3
    

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
5月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
545 2
|
10月前
|
人工智能 达摩院 并行计算
中文语音识别转文字的王者,阿里达摩院FunAsr足可与Whisper相颉顽
君不言语音识别技术则已,言则必称Whisper,没错,OpenAi开源的Whisper确实是世界主流语音识别技术的魁首,但在中文领域,有一个足以和Whisper相颉顽的项目,那就是阿里达摩院自研的FunAsr。 FunAsr主要依托达摩院发布的Paraformer非自回归端到端语音识别模型,它具有高精度、高效率、便捷部署的优点,支持快速构建语音识别服务,最重要的是,FunASR支持标点符号识别、低语音识别、音频-视觉语音识别等功能,也就是说,它不仅可以实现语音转写,还能在转写后进行标注,一石二鸟。
中文语音识别转文字的王者,阿里达摩院FunAsr足可与Whisper相颉顽
|
12天前
|
机器学习/深度学习 人工智能 并行计算
NotaGen:中央音乐学院联合清华推出AI音乐生成模型,古典乐谱一键生成,音乐性接近人类!
NotaGen 是由中央音乐学院、北京航空航天大学、清华大学等机构联合推出的音乐生成模型,基于模仿大型语言模型的训练范式,能够生成高质量的古典乐谱。该模型通过预训练、微调和强化学习相结合的方式,显著提升了符号音乐生成的艺术性和可控性。
222 15
NotaGen:中央音乐学院联合清华推出AI音乐生成模型,古典乐谱一键生成,音乐性接近人类!
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
Baichuan-Omni-1.5:百川智能开源全模态理解与生成模型,支持文本、图像、音频和视频的多模态输入和输出
Baichuan-Omni-1.5 是百川智能开源的全模态理解模型,支持文本、图像、音频和视频的多模态输入和输出,显著提升多模态交互体验。
163 22
Baichuan-Omni-1.5:百川智能开源全模态理解与生成模型,支持文本、图像、音频和视频的多模态输入和输出
|
3月前
|
机器学习/深度学习 人工智能 计算机视觉
ConsisID:北大联合鹏城实验室等机构推出的文本到视频生成模型
ConsisID是由北京大学和鹏城实验室等机构联合推出的文本到视频生成模型,专注于保持视频中人物身份的一致性。该模型采用频率分解技术和免调优的Diffusion Transformer架构,能够在多个评估维度上超越现有技术,推动身份一致性视频生成技术的发展。
178 73
ConsisID:北大联合鹏城实验室等机构推出的文本到视频生成模型
|
2月前
|
人工智能 编解码 自然语言处理
CogView-3-Flash:智谱首个免费AI图像生成模型,支持多种分辨率,快速生成创意图像
CogView-3-Flash 是智谱推出的首个免费AI图像生成模型,支持多种分辨率,快速生成高质量图像,广泛应用于广告、设计、艺术创作等领域。
102 6
CogView-3-Flash:智谱首个免费AI图像生成模型,支持多种分辨率,快速生成创意图像
|
1月前
|
人工智能 语音技术
首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽音频+文本多模态任务
Meta AI 研究团队提出了一种名为 SpiRit-LM 的新型多模态语言模型,该模型能够处理文本和音频,实现两者无缝融合。SpiRit-LM 通过“交织”方法训练,具备多模态融合、情感保留和多任务学习能力,在自动语音识别、文本转语音等任务上表现出色。它有 Base 和 Expressive 两个版本,后者能更好地捕捉情感表达。研究团队在多个基准上测试了其性能,并探索了其在语音助手、内容创作、教育和音频编辑等领域的应用前景。
47 1
|
3月前
|
人工智能 数据处理 语音技术
LatentLM:微软联合清华大学推出的多模态生成模型,能够统一处理和生成图像、文本、音频和语音合成
LatentLM是由微软研究院和清华大学联合推出的多模态生成模型,能够统一处理离散和连续数据,具备高性能图像生成、多模态大型语言模型集成等功能,展现出卓越的多模态任务处理能力。
136 29
LatentLM:微软联合清华大学推出的多模态生成模型,能够统一处理和生成图像、文本、音频和语音合成
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
VMB:中科院联合多所高校推出多模态音乐生成框架,能够通过文本、图像和视频等多种输入生成音乐
VMB(Visuals Music Bridge)是由中科院联合多所高校机构推出的多模态音乐生成框架,能够从文本、图像和视频等多种输入模态生成音乐。该框架通过文本桥接和音乐桥接解决了数据稀缺、跨模态对齐弱和可控性有限的问题。
106 7
VMB:中科院联合多所高校推出多模态音乐生成框架,能够通过文本、图像和视频等多种输入生成音乐
|
2月前
|
安全 测试技术
更睿智的看世界!实测阿里首个多模态视觉推理模型QVQ-72B-Preview
阿里通义千问Qwen团队于12月25日推出首个开源视觉推理模型QVQ-72B-Preview,该模型在数学、物理、化学等领域表现出色,在MMMU基准测试中得分70.3,超越Qwen2-VL-72B-Instruct。尽管在部分任务如立体图形计数上存在局限性,QVQ-72B-Preview仍展示了强大的视觉理解和推理能力。模型目前仅支持单轮对话和图像输出,不支持视频输入。地址:https://modelscope.cn/studios/Qwen/QVQ-72B-preview

热门文章

最新文章