基于扩散模型的音频驱动说话人生成,云从&上交数字人研究入选ICASSP 2023

简介: 基于扩散模型的音频驱动说话人生成,云从&上交数字人研究入选ICASSP 2023



近日,国际语音及信号处理领域顶级会议 ICASSP2023 在希腊成功举办。大会邀请了全球范围内各大研究机构、专家学者以及等谷歌、苹果华为、Meta AI、等知名企业近 4000 人共襄盛会,探讨技术、产业发展趋势,交流最新成果。

云从科技与上海交通大学联合研究团队的《 基于扩散模型的音频驱动说话人生成》成功入选会议论文,并于大会进行现场宣讲,获得多方高度关注。

论文地址:https://ieeexplore.ieee.org/document/10094937/ICASSP(International Conference on Acoustics, Speech and Signal Processing)是语音、声学领域的顶级国际会议之一, ICASSP 学术会议上展示的研究成果,被认为代表着声学、语音领域的前沿水平与未来发展方向。本次入选论文,围绕 “基于音频驱动的说话人视频生成” 这一视觉 - 音频的跨模态任务,将语音与视觉技术结合,提出的方法能够根据输入的语音片段技术,生成自然的头部动作,准确的唇部动作和高质量的面部表情说话视频。该项成果在多个数据集上,都取得了优于过去研究的表现。此外,在实战场景中,随着现实生活中对于数字人引用的愈来愈广泛,实现用音频驱动的生成与输入音频同步的说话人脸视频的需求也越来越大。本项成果基于扩散模型的跨模态说话人生成技术,可以推广到广泛的应用场景,例如虚拟新闻广播,虚拟演讲和视频会议等等。简介基于音频驱动的说话人视频生成任务(Audio-driven Talking face Video Generation):该任务是根据目标人物的一张照片和任意一段语音音频,生成与音频同步的目标人物说话的视频。由于其生成的说话人更自然、准确的唇形运动和保真度更高的头部姿态、面部表情,该任务广泛应用于如数字人、虚拟视频会议和人机交互等领域,作为视觉 - 音频的跨模态任务,基于音频驱动的说话人视频生成也受到了越来越多的关注。为了构建音频信号到面部形变的映射,现有方法引入了中间人脸表征,包括 2D 关键点或者 3D morphable face model (3DMM),尽管这些方法在音频驱动的面部重演任务上取得了良好的视觉质量,但由于中间人脸表征造成的信息损失,可能会导致原始音频信号和学习到的人脸变形之间的语义不匹配。此外基于 GAN 的方法训练不稳定,很容易陷入模型崩塌,往往它们只能生成具有固定分辨率的图像。针对以上问题,AD-Nerf 引入了神经辐射场,将音频信号直接输入动态辐射场的隐式函数,最后渲染得到逼真的合成视频。但是基于神经辐射场的方法计算量大导致训练耗时长,算力要求高。并且这些工作大多忽略了个性化的人脸属性,无法准确的将音频和唇部运动进行同步。因此本文的研究者们提出了本方法,通过借助去噪扩散模型来高效地优化人脸各部分个性化属性特征,进而合成高保真度的高清晰视频。方法该方法首先基于一个关键的直觉:唇部运动与语音信号高度相关,而个性化信息,如头部姿势和眨眼,与音频的关联较弱且因人而异。受到最近扩散模型在高质量的图像以及视频生成方面已经取得了快速进展的启发,因此研究者们基于扩散模型重新构造音频驱动面部重演的新框架,本方法来优化说话人脸视频的生成质量和真实度。

本方法一共包含四大部分:(1)人脸属性解耦;(2)唇 - 音对比同步;(3)动态连续性属性信息建模;(4)基于去噪扩散模型的说话人生成人脸属性解耦部分中,研究者采用 3DMM 提取源身份图像的头部姿态和表情系数,然后借鉴之前 DFA-nerf 的工作采用全连接的自编码器从表情参数解耦得到唇部运动和眨眼动作信息。唇 - 音对比同步模块中,研究者通过引入自监督跨模态对比学习策略来部署一个确定性模型来同步音频和唇部运动的特征。动态连续性属性信息建模模块中,由于头部姿势和眨眼等个性化人脸属性是随机的和具有一定概率性的,因此为了对人脸属性的概率分布进行建模并生成长时间序列,研究者提出采用了基于 transformer 的变分自动编码器(VAE)的概率模型,一是 VAE 可以用于平滑离散的属性信息并映射为高斯分布,二是利用 Transformer 的注意力机制充分学习时间序列的帧间长时依赖性。基于去噪扩散模型的说话人生成模块中,研究者生成的个性化人脸属性序列与同步的音频嵌入相连接作为扩散模型的输入条件。然后利用条件去噪扩散概率模型(DDPM)将这些驱动条件以及源人脸作为输入,通过扩散生成的方式生成最终的高分辨率说话人视频。这些个性化人脸属性序列与同步的音频嵌入用来丰富扩散模型,以保持生成图像序列的一致性。实验结果研究者们通过实验验证了本方法对于基于音频驱动的说话人视频生成任务的优越性能。定量比较实验研究者将本方法与现有音频驱动的人脸视频生成方法通过定量化分析实验进行比较,采用了峰值信噪比 (PSNR), 结构相似度(SSIM),人脸关键点运动偏移(LMD),视听同步置信度 (Sync) 等多个客观的评估指标,具体信息如表 1 所示。

本文所提出的扩散生成框架在所有的性能指标上都优于其他方法,其中 PSNR 和 SSIM 验证了人脸属性解耦方案能够更好地捕捉说话人的头部姿态、眨眼等个性化信息。而本方法的 LMD 分数意味着本方法的唇音一致性更强。此外,受益于输入音频和唇部运动的跨模态对比学习,本方法在 Sync 指标上大幅超越其他方法。定性比较实验研究者将本方法与现有音频驱动的人脸视频生成方法进行比较。通过个性化属性的学习以及扩散模型的优化,我们的方法生成具有个性化的头部运动,更加逼真眨眼信息,唇 - 音同步性能更好的人脸视频。模型中每个模块带来的效益为了突显出模型中每个模块的重要性,研究者们做了消融实验,如表 2 所示,当添加 DDPM 模块之后,在推理速度和视觉质量方面相比于其他模块的提升是最大的,其次,受益于解耦的人脸属性信息以及 VAE 的属性平滑以及动态连续性建模的作用,说话人人脸的自然度得到了提高。此外,唇音对比学习的模块通过自监督的方式显著提高了唇部运动和与输入音频的同步质量。

模型的效率研究者们还展示了模型的可训练参数量,推理速度以及输出的分辨率大小,并和之前的 SOTA 模型进行了对比,由于使用去噪扩散概率模型,该模型利用变分方法而不是对抗性训练,并且不需要部署多个鉴别器,因此极大缓解了训练时模型容易陷入模型坍塌的问题,并且采用了较短的时间步长,推理速度大大提高,效率得到了提升。

结论针对基于音频驱动的高保真度说话人视频生成这个任务,云从 - 上交的联合研究团队提出了,基于扩散框架的音频驱动说话人视频生成方法,只需要一帧或几帧身份图像以及输入语音音频,即合成一个高保真度的人脸视频,实现了最先进的合成视频视觉质量。此外利用了跨模态唇音对比学习的方法,从而提升了唇部和音频的一致性,在公开数据集上取得了 SOTA 表现。


相关文章
|
12天前
|
人工智能 搜索推荐 物联网
3D大模型助力,15分钟即可训练高质量、个性化的数字人模型,代码已开放
《MimicTalk: 快速生成个性化3D数字人》介绍了一种创新方法,利用3D大模型在15分钟内训练出高质量、个性化的数字人模型。该方法基于NeRF技术,通过“静态-动态混合适应”实现高效训练,显著提升了数字人在视频会议、虚拟现实等领域的应用潜力。论文链接:https://arxiv.org/pdf/2410.06734
42 4
|
1月前
|
机器学习/深度学习 人工智能 算法
青否数字人声音克隆算法升级,16个超真实直播声音模型免费送!
青否数字人的声音克隆算法全面升级,能够完美克隆真人的音调、语速、情感和呼吸。提供16种超真实的直播声音模型,支持3大AI直播类型和6大核心AIGC技术,60秒快速开播,助力商家轻松赚钱。AI讲品、互动和售卖功能强大,支持多平台直播,确保每场直播话术不重复,智能互动和真实感十足。新手小白也能轻松上手,有效规避违规风险。
|
2月前
|
JavaScript 前端开发 开发者
ThreeJs控制模型骨骼实现数字人
这篇文章讲解了如何使用Three.js通过控制模型的骨骼来实现数字人的动态表现,包括加载模型、获取骨骼信息以及通过编程控制骨骼动作的具体方法。
283 1
|
3月前
|
人工智能 机器人 UED
数字人模型网页手机云推流语音交互
随着AI技术的发展,数字人与大型语言模型的结合迎来了新机遇,各类数字人服务不断涌现,应用于多种场景。点量小芹发现许多厂商仍在探索如何优化数字人在移动端的表现。通过云推流实时渲染解决方案。无论是直播中的数字人形象定制,还是网页客服与大屏讲解的应用,只需将数字人模型置于服务器端,借助云渲染技术,用户即可在网页或移动设备上轻松使用高精度的数字人,显著降低硬件需求,提升互动体验。
153 13
|
6月前
|
算法
VASA-1:实时音频驱动的数字人说话面部视频生成技术
【6月更文挑战第8天】VASA-1是实时音频驱动的数字人面部视频生成技术,能根据输入音频精准生成匹配的面部表情。具备实时性、高准确性和适应性,适用于虚拟主播、在线教育和影视娱乐等领域。简单示例代码展示了其工作原理。尽管面临情感理解和硬件优化等挑战,但随着技术发展,VASA-1有望在更多领域广泛应用,开启生动数字世界的新篇章。
317 5
|
7月前
|
机器学习/深度学习 编解码 算法
微软诈骗届王牌框架,真到可怕!一张照片+音频即可生成数字人
【5月更文挑战第8天】微软发布VASA-1框架,仅需照片和音频即可实时创建逼真数字人,引发诈骗关注。该技术利用深度学习,将静态照片转为动态面部特征,根据音频生成唇动、表情和头部动作,实现高真实感、实时、多模态输入的数字人生成。尽管有广泛应用前景,如虚拟主播、游戏角色等,但其高真实度也可能加剧诈骗风险,需平衡技术创新与安全防范。[[论文链接](https://arxiv.org/pdf/2404.10667.pdf)]
208 0
|
算法 语音技术
遥遥领先!青否数字人直播系统支持真人接管实时驱动!
青否数字人SaaS系统5.0正式发布,王炸更新!提供口播视频批量制作+7*24小时直播全套解决方案。 同时直播间支持真人开麦/输入文字选择音色接管,实时驱动直播间数字人回复
|
机器学习/深度学习 云安全 人工智能
文心千帆:PPT 制作、数字人主播等应用场景惊艳到我了,下面给ERNIE-Bot|BLOOMZ大模型调优、RLHF训练详细教程
文心千帆:PPT 制作、数字人主播等应用场景惊艳到我了,下面给ERNIE-Bot|BLOOMZ大模型调优、RLHF训练详细教程
文心千帆:PPT 制作、数字人主播等应用场景惊艳到我了,下面给ERNIE-Bot|BLOOMZ大模型调优、RLHF训练详细教程

热门文章

最新文章