VMB:中科院联合多所高校推出多模态音乐生成框架,能够通过文本、图像和视频等多种输入生成音乐

本文涉及的产品
图像搜索,任选一个服务类型 1个月
简介: VMB(Visuals Music Bridge)是由中科院联合多所高校机构推出的多模态音乐生成框架,能够从文本、图像和视频等多种输入模态生成音乐。该框架通过文本桥接和音乐桥接解决了数据稀缺、跨模态对齐弱和可控性有限的问题。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  1. 多模态音乐生成:VMB 能够从文本、图像和视频等多种输入模态生成音乐。
  2. 技术创新:通过文本桥接和音乐桥接,解决了数据稀缺和跨模态对齐问题。
  3. 应用广泛:适用于电影、游戏、虚拟现实等多个领域,提升音乐生成的质量和可控性。

正文

VMB 是什么

公众号: 蚝油菜花 - VMB

VMB(Visuals Music Bridge)是中国科学院信息工程研究所、中国科学院大学网络空间安全学院、上海人工智能实验室、上海交通大学等机构联合推出的多模态音乐生成框架。该框架能够从文本、图像和视频等多种输入模态生成音乐,解决了数据稀缺、跨模态对齐弱和可控性有限的问题。

VMB 通过构建文本桥接和音乐桥接,显著提升了音乐质量、模态对齐和定制化能力。文本桥接将视觉输入转换为详细的音乐描述,音乐桥接则结合广泛和针对性的音乐检索策略,提供用户控制。最终,VMB 通过显式条件音乐生成框架整合两个桥接,生成高质量的音乐。

VMB 的主要功能

  • 多模态音乐描述模型(Multimodal Music Description Model):将视觉输入(如图像和视频)转换成详细的文本描述,为音乐生成提供文本桥接。
  • 双轨音乐检索(Dual-track Music Retrieval):结合广泛和针对性的音乐检索策略,提供音乐桥接,支持用户修改文本描述或提供参考音乐控制输出音乐。
  • 显式条件音乐生成(Explicitly Conditioned Music Generation):基于文本桥接和音乐桥接生成音乐,整合两个显式桥接到一个文本到音乐的扩散变换器中。
  • 增强模态对齐:改善输入模态与生成音乐之间的对齐,让音乐更贴近输入的视觉和情感内容。
  • 提升可控性:用户能用文本描述或提供的音乐样本指导音乐生成过程,实现更精细的控制。

VMB 的技术原理

  • 文本桥接:使用多模态音乐描述模型(MMDM),基于 InternVL2 构建,将视觉输入转换为自然语言中的详细音乐描述,作为音乐生成的文本桥接。
  • 音乐桥接:基于双轨音乐检索模块,一方面进行广泛检索识别情感和主题内容的全局对齐,另一方面进行针对性检索关注特定音乐属性(如节奏、乐器和流派)。
  • 显式条件音乐生成:结合文本桥接和音乐桥接,使用扩散变换器(DiT)将文本描述转换成音乐。模型使用 Music ControlFormer 整合广泛检索的细粒度控制,使用 Stylization Module 处理针对性检索的整体条件。
  • 检索增强生成(RAG):在音乐生成中首次探索 RAG 技术,动态结合音乐知识,用桥接模态差距,提升跨模态生成性能,增加可控性。
  • 控制信号融合:在生成过程中,用元素级相加的方式将主分支和 ControlFormer 分支的隐藏状态结合起来,确保在生成的早期阶段建立结构和语义对齐。
  • 风格化模块:将检索到的音乐与文本描述结合起来,基于跨注意力机制将条件表示整合到噪声音乐中,聚焦音乐和文本数据中的风格线索,提高生成音乐与指定属性之间的对齐度。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关文章
|
27天前
|
存储 编解码 监控
针对3-15分钟视频的抽帧策略:让Qwen2.5 VL 32B理解视频内容
针对3-15分钟视频,提出高效抽帧策略:通过每5-10秒定间隔或关键帧检测方法,提取30-100帧关键图像,结合时间均匀采样与运动变化捕捉,降低冗余,提升Qwen2.5 VL 32B对视频内容的理解效率与准确性。
|
3月前
|
人工智能 弹性计算 API
再不玩通义 VACE 模型你就过时了!一个模型搞定所有视频任务
介绍通义的开源模型在 ecs 或 acs 场景如何一键部署和使用,如何解决不同视频生成场景的问题。
|
15天前
|
人工智能 缓存 自然语言处理
Java与多模态AI:构建支持文本、图像和音频的智能应用
随着大模型从单一文本处理向多模态能力演进,现代AI应用需要同时处理文本、图像、音频等多种信息形式。本文深入探讨如何在Java生态中构建支持多模态AI能力的智能应用。我们将完整展示集成视觉模型、语音模型和语言模型的实践方案,涵盖从文件预处理、多模态推理到结果融合的全流程,为Java开发者打开通往下一代多模态AI应用的大门。
172 41
|
3月前
|
人工智能 弹性计算 JSON
再不玩通义VACE模型你就过时了!一个模型搞定所有视频任务
阿里巴巴开源通义万相Wan2.1-VACE,业界功能最全的视频生成与编辑模型,支持文生视频、图像参考生成、视频重绘、局部编辑、背景延展等,统一模型实现多任务自由组合,轻量版本消费级显卡即可运行。
|
21天前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
248 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
17天前
|
自然语言处理 安全
Min-p采样:通过动态调整截断阈值让大模型文本生成兼顾创造力与逻辑性
大语言模型通过预测下一个词生成文本,采样策略决定其创造力与连贯性。Min-p采样根据模型置信度动态调整选择阈值,在高不确定性时扩大候选范围,低不确定性时聚焦高概率词,相较Top-k、Top-p等方法,更好平衡了多样性与质量,尤其在高温下仍保持输出稳定,提升生成文本的流畅性与创新性。
81 3
|
5月前
|
人工智能 自然语言处理 算法
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
437 0
AI智能混剪视频大模型开发方案:从文字到视频的自动化生成·优雅草卓伊凡
|
2月前
|
编解码 自然语言处理
通义万相开源14B数字人Wan2.2-S2V!影视级音频驱动视频生成,助力专业内容创作
今天,通义万相的视频生成模型又开源了!本次开源Wan2.2-S2V-14B,是一款音频驱动的视频生成模型,可生成影视级质感的高质量视频。
580 29
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
88_多模态提示:图像与文本融合
在人工智能领域的快速发展中,多模态融合已成为突破单一模态限制、实现更全面智能理解的关键技术方向。人类理解世界的方式天然是多模态的——我们同时通过视觉、听觉、语言等多种感官获取信息并进行综合分析。例如,在餐厅点餐时,我们会同时处理菜单上的图片、服务员的介绍和菜品的文字描述,最终做出决策。这种自然的多模态信息整合能力,正是人工智能系统长期以来努力追求的目标。
|
4月前
|
机器学习/深度学习 人工智能 算法
通义OmniAudio大模型,让 AI 看懂 360° 视频,并“听”出对应的空间音频
OmniAudio 是一项突破性的空间音频生成技术,能够直接从 360° 视频生成 FOA(First-order Ambisonics)空间音频,为虚拟现实和沉浸式娱乐带来全新可能。通过自监督 coarse-to-fine 预训练和双分支视频表示微调,OmniAudio 在非空间音频质量和空间定位准确性上显著优于现有方法。项目包含超过 103,000 个视频片段的 Sphere360 数据集,支持高质量的模型训练与评估。代码、数据及论文均已开源,助力沉浸式体验技术发展。
550 62

热门文章

最新文章