通义 CoGenAV 大模型音画同步感知,重新定义语音理解边界

本文涉及的产品
多模态交互后付费免费试用,全链路、全Agent
简介: CoGenAV 是一种创新的多模态语音理解模型,核心理念是实现“音画同步”的深度理解。通过学习 audio-visual-text 的时序对齐关系,构建更鲁棒、更通用的语音表征框架。它在视觉语音识别(VSR)、音视频语音识别(AVSR)、语音增强与分离(AVSE/AVSS)及主动说话人检测(ASD)等任务中表现出色,尤其在嘈杂环境下性能显著提升。仅需 223 小时数据训练即可媲美传统数千小时数据的效果,大幅降低训练成本。CoGenAV 支持主流平台如 GitHub、HuggingFace 和 ModelScope,助力多场景应用开发。

image.png

image.png

听清+看懂每一句话

CoGenAV 的核心理念是 AI 模型也实现“音画同步”的深度理解。它不再只是“听见声音”,而是通过学习 audio-visual-text 之间的时序对齐关系,构建出一个更鲁棒更通用的语音表征框架

该框架能系统性地提升多个 Speech-Centric 任务的表现力,包括但不限于:语音识别任务(VSR/AVSR),语音重建任务(AVSS/AVSE),以及语音同步任务(ASD)。

image.png

CoGenAV 创新性的采用“对比生成同步”策略,能从 audio-visual-text 多模同步信息中高效地学习到高质量的音视频特征表示。这种能力使它不仅适用于传统的语音识别任务,还能拓展至语音重建、说话人判断等多个领域。此外,CoGenAV 可直接接入主流语音识别模型(如 Whisper),无需修改或微调即可实现视觉语音识别功能,显著降低了部署门槛。CoGenAV 还展现出出色的抗噪能力和数据效率。在嘈杂环境中,它能够通过视觉信息补全被噪声干扰的声音内容,从而稳定输出准确结果。而在训练数据方面,仅需 223 小时的数据量,就能达到甚至超越传统模型使用数千小时数据的效果。这大大节省了训练成本,也增强了模型的实用性与扩展潜力。

如何实现音画同步?

CoGenAV 的核心框架由两个关键部分组成:音视频特征表示对比生成同步训练机制。

在特征提取阶段,模型采用 ResNet 3D CNN 来分析视频中说话人的唇部动作,捕捉声音与口型之间的动态关联;同时用 Transformer 编码器提取音频中的语音信息。这些音视频特征会被精确对齐,确保“听到的声音”和“看到的嘴型”在时间上完全匹配。

对比生成同步训练通过两种方式提升模型的理解能力:

  • 对比同步采用 Seq2Seq Contrastive Learning 方法,增强音频与视频特征之间的对应关系,帮助模型更准确地识别声音与口型的匹配。同时引入 ReLU 激活函数,过滤掉不相关的干扰帧,提升模型在复杂环境下的稳定性。
  • 生成同步,借助一个预训练 ASR 模型(如 Whisper)作为“老师”,将 CoGenAV 提取的音视频特征与其声学-文本表示对齐。为了弥补不同模态之间的差异,模型设计了一个轻量级适配模块(Delta Upsampler + GatedFFN MHA),有效提升了跨模态融合效率。

这套“双轮驱动”的训练策略,使 CoGenAV 在多个语音任务中都表现出色,真正实现了“听清 + 看懂”的多模态理解。

性能领先记录刷新

CoGenAV在多个基准数据集上取得了突破性成果。

视觉语音识别(VSR):在 LRS2 数据集上,仅用 223 小时唇动视频训练,就在视觉语音识别(VSR)任务中达到 20.5% 的词错误率(WER),效果媲美使用数千小时数据的传统模型。

image.png

音视频语音识别(AVSR):结合 Whisper Medium 模型,在相同数据集实现 1.27% WER,刷新 SOTA 记录。在 0dB 噪声环境下,性能提升超过 80%,显著优于纯音频模型(如Whisper Medium的34.2% WER)。

image.png

语音增强与分离(AVSE/AVSS):在 LRS2 语音分离与任务中,CoGenAV作为视觉特征提取器,SDRi指标达 16.0 dB ,超越AvHuBERT 1.6 dB,Av SepFormer 0.3 dB。 语音增强任务中,SDRi指标为 9.0 dB ,优于Av HuBERT 1.6 dB。

image.png

主动说话人检测(ASD):在Talkies数据集上,CoGenAV的平均精度(mAP)达到 96.3% ,领先现有方法(如LocoNet的96.1%)。

image.png

是不是很实用呢,赶快来体验一下新的模型能力吧~~

可使用平台:

GitHub: https://github.com/HumanMLLM/CoGenAV

arivx: https://arxiv.org/pdf/2505.03186

HuggingFace: https://huggingface.co/detao/CoGenAV

ModelScope: https://modelscope.cn/models/iic/cogenav


⛳如果还想要了解更多通义大模型的模型详细信息以及直接进入体验,可以点击🔗https://www.aliyun.com/product/tongyi直接进入查看和体验哦~~

也可以关注一下通义大模型的公众号,后续有新的产品动态都会在内发布。

通义大模型公众号二维码.png


相关文章
|
16天前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。
|
27天前
|
人工智能 Java API
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
本文介绍AI大模型的核心概念、分类及开发者学习路径,重点讲解如何选择与接入大模型。项目基于Spring Boot,使用阿里云灵积模型(Qwen-Plus),对比SDK、HTTP、Spring AI和LangChain4j四种接入方式,助力开发者高效构建AI应用。
857 122
AI 超级智能体全栈项目阶段一:AI大模型概述、选型、项目初始化以及基于阿里云灵积模型 Qwen-Plus实现模型接入四种方式(SDK/HTTP/SpringAI/langchain4j)
|
7天前
|
机器学习/深度学习 人工智能 人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
179 121
|
7天前
|
数据采集 人工智能 搜索推荐
智能新纪元:多模态大模型如何重塑人机交互
智能新纪元:多模态大模型如何重塑人机交互
160 113
|
7天前
|
人工智能 人机交互 知识图谱
当AI学会“融会贯通”:多模态大模型如何重塑未来
当AI学会“融会贯通”:多模态大模型如何重塑未来
188 114
|
7天前
|
人工智能 安全 搜索推荐
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
179 117
|
2月前
|
数据采集 机器学习/深度学习 编解码
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
390 0
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
|
2月前
|
机器学习/深度学习 人工智能 算法
GSPO:Qwen让大模型强化学习训练告别崩溃,解决序列级强化学习中的稳定性问题
这是7月份的一篇论文,Qwen团队提出的群组序列策略优化算法及其在大规模语言模型强化学习训练中的技术突破
868 0
GSPO:Qwen让大模型强化学习训练告别崩溃,解决序列级强化学习中的稳定性问题