语音领域的GPT时刻:Meta 发布「突破性」生成式语音系统,一个通用模型解决多项任务

简介: 语音领域的GPT时刻:Meta 发布「突破性」生成式语音系统,一个通用模型解决多项任务


继开源 LLaMA 之后,Meta 在生成式 AI 方向又公布一项重大研究。


我们知道,GPT、DALL-E 等大规模生成模型彻底改变了自然语言处理和计算机视觉研究。这些模型可以生成高保真文本或图像,而且它们有个重要特点就是「通才」,可以解决没训过的任务。相比之下,语音生成模型在规模和任务泛化方面一直没有「突破性」成果。

今日,Meta 介绍了一种「突破性」的生成式语音系统,它可以合成六种语言的语音,执行噪声消除、内容编辑、转换音频风格等。Meta 称之为最通用的语音生成 AI。


相关研究论文也已公布。接下来我们具体看下这下项研究。


论文:https://research.facebook.com/publications/voicebox-text-guided-multilingual-universal-speech-generation-at-scale/

Meta 表示,Voicebox 是第一个没有经过专门针对语音生成的训练,却可以泛化到语音生成任务的模型。

,时长02:43

与图像和文本的生成一样,Voicebox 可以创建多种样式的语音输出,包括从头开始创建输出和修改给定的样本。Voicebox 可以合成六种语言的语音,以及执行噪声去除、内容编辑、风格转换和多样化样本生成。

在 Voicebox 出现之前,生成语音的 AI 需要使用精心准备的训练数据对每项任务进行特定训练。而 Voicebox 仅需要从原始音频和随附的转录文本中学习,并且 Voicebox 可以修改给定样本的任何部分。

Voicebox 基于一种称为流匹配(Flow Matching)的方法,该方法已被证明可以改进扩散模型。

在生成效果方面,Voicebox 的可懂度(词错率:1.9% VS 5.9%)和音频相似度(0.681 VS 0.580)优于当前英文语音生成 SOTA 模型 VALL-E,并且速度快了 20 倍。在跨语言风格迁移任务上,Voicebox 优于 YourTTS,将平均词错率从 10.9% 降低到 5.2%,将音频相似度从 0.335 提高到 0.481。

Voicebox 在词错率指标上的表现优于 Vall-E 和 YourTTS,实现新的 SOTA。

在英语和多语言基准的音频风格相似度指标上,Voicebox 都取得了新的最佳结果。

语音生成新方法

现有语音合成器的一大主要局限是它们的训练数据都是针对目标任务准备的。这些输入基本都要求是单调的干净数据,也因此难以获取,数据量很有限,并且用这些数据训练出的模型也只能输出单调的声音。

Voicebox 基于流匹配(Flow Matching)模型,这是 Meta 在非自回归生成模型方面的最新进展,其可以学习到文本和语音之间高度非确定性的映射关系。非确定性映射很有用,因为这能让 Voicebox 学习不同的语音数据而无需仔细标注这些变体。也就是说,Voicebox 可以在更多样化的数据上训练,因此可使用数据的范围也大得多。

,时长00:22

Meta 训练 Voicebox 时使用的数据来自英语、法语、德语、西班牙语、波兰语、葡萄牙语这六种语言,包含 50000 小时的录音和转录文本以及公共领域的有声书。Voicebox 的训练目标是根据周围语音和某片段的转录文本来预测该片段的语音。学习过基于上下文填充语音之后,该模型就能让其用于各种语音生成任务,包括生成音频录音中的缺失片段(无需重建整个输入)。

Voicebox 的这种多功能性使其可以很好地执行多种不同任务,包括:

基于语境的文本转语音合成:仅需使用长度 2 秒的输入音频样本,Voicebox 就能匹配样本的音频风格并将其用于文本转语音生成。这一能力具有重要的应用前景,比如可以为难以说话的人带来语音表达能力,还能让用户为 NPC 角色和虚拟助手定制声音。

跨语言风格迁移:给定一段语音样本和对应的文本片段,不管是英语、法语、德语,还是西班牙语、波兰语、葡萄牙语,Voicebox 都能以该语言读出该文本。这是一种激动人心的能力,因为这能帮助人们自然而真实地交流 —— 即便他们不说同一种语言。

,时长00:25

语音降噪和编辑:Voicebox 的上下文学习能力让它可以在音频录音中生成无缝衔接的片段。要是音频中出现了被噪声污染的片段,它也可以为其重新合成,甚至无需重新录音就能替换原音频中说错的词句。用户可以辨别原始音频中被噪声(比如犬吠声)污染的片段,然后将其裁剪下来,再指示 Voicebox 重新生成该片段。这项能力有望让音频编辑变得非常简单,就像现在流行的图像编辑工具调整图像一样。

,时长00:23

多样化的语音采样:Voicebox 学习了多样化的野外数据,所以可以生成就像在现实世界中说话的声音,并且支持上述六种语言。未来,这种能力可用于合成数据,然后用于训练语音助理模型等。Meta 的实验结果表明,基于 Voicebox 合成语音训练的语音识别模型的表现几乎不逊于使用真实语音训练的模型 —— 错误率仅高了 1%;而要是使用之前的文本转语音模型合成的数据训练,错误率会提升 45%-70%。

,时长00:23

Meta 表示,Voicebox 作为首个能成功执行任务泛化的高效的多功能模型,将开创一个语音生成式 AI 的新时代。

但 Meta 也没有否认这项技术可能被误用乃至被恶意使用。为了应对这种可能性,降低潜在的风险,Meta 还构建了一种分类器,其宣称可有效分辨真实语音和 VoiceBox 生成的音频。

Voicebox 是生成式 AI 研究的重要一步。具备任务泛化能力的生成式 AI 模型正在催生出涉及文本、图像和视频生成的实际应用,这将让生成式 AI 更上一层楼。

参考内容:https://www.engadget.com/metas-open-source-speech-ai-recognizes-over-4000-spoken-languages-161508200.htmlhttps://ai.facebook.com/blog/voicebox-generative-ai-model-speech/

相关文章
|
1月前
|
机器学习/深度学习
智能体DS-Agent基于案例推理,让GPT-4数据科学任务接近100%
【4月更文挑战第20天】DS-Agent是结合案例推理(CBR)和大型语言模型的新研究,旨在提升自动化数据科学任务效率。通过自动迭代管道,它能理解任务、构建模型并优化性能。在开发阶段,成功率高达100%,部署阶段平均提高36%的一次通过率,降低成本,使开源LLMs也能高效处理数据科学任务。然而,LLMs的生成问题和资源限制仍是挑战。论文链接:https://arxiv.org/pdf/2402.17453.pdf
56 4
|
1月前
|
人工智能 自然语言处理 物联网
Predibase发布25个LoRA,超越GPT-4的Mistral模型
【2月更文挑战第24天】Predibase发布25个LoRA,超越GPT-4的Mistral模型
60 2
Predibase发布25个LoRA,超越GPT-4的Mistral模型
|
10天前
|
数据采集 机器学习/深度学习 人工智能
可信度超越GPT-4V,清华&面壁揭秘小钢炮模型背后的高效对齐技术
【6月更文挑战第15天】清华大学与面壁智能合作的RLAIF-V框架挑战GPT-4V,通过开源AI反馈增强大语言模型的可信度。该框架利用开放数据和在线学习优化对齐,减少幻觉错误,12B参数模型表现超越GPT-4V。虽有数据质量和稳定性问题,但展示出开源MLLMs潜力。[链接: https://arxiv.org/abs/2405.17220]
48 1
|
8天前
|
人工智能 自然语言处理 搜索推荐
探索马斯克xAI与GPT模型的现状与发展:引领人工智能的未来
探索马斯克创立的xAI与"百模大战"的崛起,马斯克从对AI的担忧转向实际行动,成立xAI以追求宇宙真理。中国AI产业在竞争中崛起,多家企业推出大模型,展现出强劲实力。AI大模型发展趋势包括规模性能提升、多模态学习、个性化和自适应,以及模型的可解释性和公正性。xAI与GPT模型的出现,揭示了AI的潜力与挑战,未来将推动人机协作和模型的可持续发展。
|
1月前
|
人工智能 自然语言处理 数据可视化
一键本地部署类GPT大模型,免费!
一键本地部署类GPT大模型,免费!
86 1
|
1月前
|
人工智能
苹果推出理解、转化模型ReALM,性能超GPT-4
【5月更文挑战第13天】苹果发布ReALM模型,将参考解析转化为语言建模,超越GPT-4。ReALM通过将非文本实体转为文本处理,解决了AI在处理特定问题时的局限。实验显示,ReALM在多种参考解析任务上优于GPT-3.5和GPT-4,尤其在屏幕实体参考解析上提升超5%。但模型可能因信息丢失和高计算需求带来挑战。[链接](https://arxiv.org/abs/2403.20329)
27 3
|
21天前
|
机器学习/深度学习 人工智能 自然语言处理
对于 OpenAI 最新发布 支持实时语音对话的模型GPT-4o,你想说什么?
【6月更文挑战第4天】对于 OpenAI 最新发布 支持实时语音对话的模型GPT-4o,你想说什么?个人关于 OpenAI 最新发布的支持实时语音对话模型的 GPT-4o 想说的内容
|
1月前
|
机器学习/深度学习 传感器 人工智能
科技周报 | GPT商店上线即乱;大模型可被故意“教坏”?
科技周报 | GPT商店上线即乱;大模型可被故意“教坏”?
44 1
|
1月前
|
人工智能 测试技术 vr&ar
GPT超越扩散、视觉生成Scaling Law时刻!北大&字节提出VAR范式
【4月更文挑战第22天】北京大学与字节跳动联合研发的Visual AutoRegressive modeling (VAR)是一种创新的图像生成范式,通过“下一尺度预测”而非传统的“下一标记预测”学习视觉分布。VAR在ImageNet基准上提升了自回归模型的FID和IS,同时加快了20倍推理速度,超越扩散变换器。该模型展示出与大型语言模型相似的缩放定律,解决了自回归模型的计算成本问题和扩散模型的速度不足。VAR具备零样本泛化能力,适用于图像修复等任务,未来研究将探索其在高分辨率图像和视频生成中的潜力。[论文链接](https://arxiv.org/abs/2404.02905)
25 1
|
1月前
|
人工智能 自然语言处理 测试技术
四大模型横评,GPT-4原文复制最严重
【2月更文挑战第19天】四大模型横评,GPT-4原文复制最严重
46 1
四大模型横评,GPT-4原文复制最严重