2024通义语音AI技术图景,大模型引领AI再进化

简介: 2024通义语音AI技术图景,大模型引领AI再进化

文章来自 阿里语音AI公众号

2 0 2 4

自1956年达特茅斯会议上,约翰·麦卡锡首次提出了“人工智能”这一术语。AI在此后七十年的发展中呈现脉冲式趋势,每隔5-10年会出现一次技术革新和域定。在这一技术探索进程之中,预训练基础模型逐渐成为主流探索方向,受到学术界和工业界的关注。在此技术背景下,OpenAI携应用级界面产品ChatGPT横空出世,使得人们对大语言模型的通用能力有了全新的认识,引燃了语义大语言模型的研究热潮。

与此同时,要模拟人类的超级大脑,就必须进行多模态理解。这是因为人类接受信息不仅仅通过语言,真实世界的信息反馈还包含语音、文本、图像、视频等多种模态。单一模态的信息难以对人类的信息获取、环境感知、知识学习与表达的过程进行全面有效的学习。站在岁末交更之际,本文将回顾最近一年通义实验室在语音AI经典的原子能力,如语音识别、语音合成、说话人识别的研究进展,并介绍语音AI结合大模型的多模态研究及应用进展。最后开源是降低AI研究和应用门槛的最有效手段,本文将会总结当前团队的开源情况,供读者鉴阅。 本文大集中看点:


01

语音识别和基础技术

音频多模态大模型

02

音频分析

语音合成

03

多模态语义大模型

技术应用实践解析

04

开源全况总结



01 语音识别

 

语音识别服务框架


语音识别服务除了语音识别声学模型以外,还包含很多对于实践应用非常关键的技术模块:语音端点检测、标点预测、逆文本正则化(ITN)等。进一步的,语音识别声学模型也包含很多配套的子技术模块,例如热词定制化技术、时间戳预测等。本小节会介绍通义实验室过去一年在语音识别声学模型、语音端点检测、语音识别热词定制化和时间戳预测上最新的研究和应用进展。


Paraformer语音识别声学模型

过去一年,通义语音实验室研究提出和落地了Paraformer的非自回归端到端语音识别。非自回归模型相比于目前主流的自回归模型,可以并行的对整条句子输出目标文字,特别适合利用GPU进行并行推理。相同模型参数规模的Paraformer和Transformer,Paraformer结合GPU推理效率可以提升5~10倍。Paraformer是当前已知的首个在工业大数据上可以获得和自回归端到端模型相同性能的非自回归模型。

过往关于非自回归端到端语音识别的研究主要面临两个核心问题:1)如何一次性准确的预测输入的音频包含的输出文字数目;2)如何优化非自回归模型中条件独立假设导致的语义信息丢失。

针对第一个问题,我们采用一个预测器(Predictor)来预测文字个数并通过 Continuous integrate-and-fire (CIF) 机制来抽取文字对应的声学隐变量。针对第二个问题,受启发于机器翻译领域中的 Glancing language model(GLM),我们设计了一个基于 GLM 的 Sampler 模块来增强模型对上下文语义的建模。

Paraformer模型结构如上图所示,由 Encoder、Predictor、Sampler、Decoder 与 Loss function 五部分组成。Encoder可以采用不同的网络结构,例如self-attention,conformer,SAN-M等。Predictor 为两层FFN,预测目标文字个数以及抽取目标文字对应的声学向量。Sampler 为无可学习参数模块,依据输入的声学向量和目标向量,生产含有语义的特征向量。Decoder 结构与自回归模型类似,为双向建模(自回归为单向建模)。Loss function 部分,除了交叉熵(CE),还包括了 Predictor 优化目标 MAE。

目前基于paraformer的语音识别框架已经全量上线到阿里云语音AI。同时在下文我们也会介绍Paraformer在Modelscope社区和FunASR的开源相关的工作。关于Paraformer的详细的技术细节也可以参阅论文https://arxiv.org/abs/2206.08317

RWKV-RNN-T语音识别声学模型

过去一年,我们在语音识别声学模型上的另一个尝试是探索将最新的RWKV结构和RNN-T相结合应用于实时语音识别。

目前主流的Transformer和Conformer网络结构的核心组件是self-attention。然而,全局attention机制使其不适用于流式识别场景。为了使transformer和conformer支持流式语音识别,常见的做法是使用chunk attention。这一做法存在两个问题,一是存在延迟和识别率的trade-off,即更低的识别错误率依赖更大的chunk,但会造成更大的延迟;二是需要在推理时缓存历史chunk的Key,Value信息,这增大了推理时的存储开销。

我们提出将最新的RWKV网络结构和RNN-T相结合,应用于低延迟的实时语音识别。RWKV是一种线性attention模型,在推理时,RWKV的前向计算可以写成RNN的形式。因此将RWKV用作ASR encoder有两大优势,一是无需使用chunk,因而不会引入额外的延时;二是推理时无需缓存Key,Value信息。

我们在Aishell-1、Librispeech、Gigaspeech、Wenetspeech上的结果表明,RWKV-RNN-T在延迟更小的前提下,可以取得与chunk-conformer接近的性能。在工业量级上的评测结果也表明,RWKV-RNN-T在低延迟限制下具有出色的识别准确率。 当前RWKV-RNN-T的相关模型已经通过Modelscope进行开源,相关的训练代码也通过了FunASR进行开源。具体可以参阅如下的具体链接:

Modelscope体验地址:https://modelscope.cn/models/damo/speech_rwkv_transducer_asr-en-16k-gigaspeech-vocab5001-pytorch-online/summary

论文预印版地址:https://arxiv.org/pdf/2309.14758.pdf

代码开源:https://github.com/alibaba-damo-academy/FunASR


Semantic-VAD语音端点检测

语音端点检测(Voice Activity Detection,VAD)是语音识别系统中重要的组成部分,它能够将输入音频的有效语音检出并输入识别引擎进行识别,减少无效语音带来的识别错误。目前应用比较广泛的是基于DNN、FSMN、LSTM的二分类或者Monophone建模方式。

传统的VAD模型只区分语音和静音,忽略了每个静音部分是否是完整的语义断点,通常情况下需要等待较长的连续尾部静音(例如700毫秒)才能进行尾点判停。这种传统模型在语音交互应用场景中会带来比较明显的体感延时;在翻译场景还存在切割出来的片段语义不完整,影响翻译效果。

为了解决这类问题,我们在传统的VAD模型中添加一个帧级标点预测任务。如果检测到一个结束标点(例如句号、问号),表明存在完整的语义断点,等待一个较短的尾部静音(例如400毫秒)则进行断句。当检测到非结束标点(例如逗号、顿号)的情况下,用于断句的尾部静音需要略长一些(例如500毫秒)。只有在无法预测标点的情况下,才会使用传统VAD的预设最大尾部静音(例如700毫秒)来确定分割点。传统VAD的是单任务训练方式,如下图(a)所示,通常采用DNN、FSMN、LSTM等模型结构。我们提出的语义VAD,通过多任务训练框架,如下图(b)所示,引入了标点预测和自动语音识别(ASR)任务来增强VAD训练中的语义信息学习,从而提高了整个VAD系统的性能。

在实际应用场景中(例如智能交互场景),需要在考虑延时和实时率的同时来提高VAD系统的性能,我们采用的是基于RWKV的模型结构,如下图(c)所示,该模型结构结合了RNN和Transformer的优点,非常适合用于实时语音端点检测系统。而在离线系统中(例如客户质检场景),更注重片段的切割准确率,我们采用的是通义语音实验室自研的SAN-M Chunk结构,如下图(d)所示。

论文预印版下载地址:http://arxiv.org/abs/2312.14860


热词定制化技术

大家在使用通用语音识别模型时,往往会遇到人名地名与专有名词识别不正确的问题,在这种情况下模型通常会输出同音异形的结果。热词定制化技术旨在支持用户通过预设热词列表的方式增强上述词汇的识别,是解决通用语音识别模型实际应用的最后一步中的关键技术之一。

通义实验室语音团队的热词定制化技术经过了从基于WFST解码图的热词激励到基于Clas的神经网络热词激励与二者耦合共同激励的演变,并且在今年针对Paraformer非自回归模型结构提出了Semantic-Augmented Contextual Paraformer(SeACo-Paraformer),利用Paraformer的结构特点实现了热词协同解码的效果。其热词召回率较Clas模型显著提升,并且模型训练与生效的稳定性较Clas更优。

基于神经网络的热词定制化ASR模型的核心策略由两部分组成:训练过程中随机采样热词、通过attention机制捕捉热词信息与decoder信息的相关性。Clas方案通过上述策略实现了隐式的热词激励,即热词部分的建模嵌入到了ASR decoder中,在基础ASR模型效果较好时网络的偏置部分可能会因不能得到充分训练而失效。SeACo-Paraformer将热词建模功能从ASR decoder中解耦,通过显式的热词损失函数引导热词建模,网络结构与训练方式如上图所示。内部工业数据对比实验表明,SeACo-Paraformer模型相较Paraformer-Clas模型在热词召回率上得到了约18%的提升,并且解耦了ASR模型训练与热词模型训练,使训练过程更灵活。论文预印版下载地址:https://arxiv.org/pdf/2308.03266.pdf


一体化时间戳预测

语音识别的音字对齐功能是一些典型应用,例如自动字幕等的关键需求。在语音识别模型从传统的基于HMM-DNN-WFST融合系统迈进基于CTC、Transformer、Transducer等结构的端到端时代的过程中,时间戳预测问题是遗留问题之一。

传统模型基于HMM产生的帧级别强制对齐,能够天然的在解码器中获取输出token的时间戳。但是在端到端模型中,CTC/Transducer模型面临尖峰偏移的问题、Transformer/LAS模型进行非帧同步的解码,均无法天然的获取输出token的时间戳,需要借助传统Force-Alignment模型分两阶段生成时间戳,提升了模型训练的成本与难度。

基于Paraformer模型中CIF-Predictor的建模特性,我们发现CIF机制的权重累计过程可以被用于时间戳生成。针对工业模型CIF权重的特点,我们设计了包括延迟发射在内的优化策略,实现了在ASR模型解码的同时天然的获取输出token的时间戳(如上图所示)。在学术数据集与工业数据集的实验中,上述方法的时间戳精度与Force-Alignment系统相当。

论文预印版下载地址:https://arxiv.org/pdf/2301.12343.pdf

 

音频多模态大模型


技术的发展日新月异,大模型也从单一的语义大模型快速的在向多模态大模型发展。例如OpenAI最新的GPT-4V,解锁了文本和视觉的能力;GPT-4的VoiceChat解锁了语义和语音的能力;Google的Gemini从设计之初就是一个包含文本、视觉和音频的多模态大模型。通义实验室过去的一年也在前沿的音频多模态大模型上展开相应的探索:1)多模态语音识别;2)LauraGPT语音大模型;3)Qwen-Audio语音-语义大模型。

多模态语音识别

多模态语音识别技术旨在利用多种模态信息来提升语音识别系统的性能。现有的一些多模态方法主要关注视频或图像方面的信息(例如唇语、图片中物品的种类信息等),但却忽视了对视频中文本信息的利用。在线会议视频中通常包含大量幻灯片,这些幻灯片以文本和图像的形式提供了丰富的特定领域信息,并且幻灯片和语音是实时同步的,因而也提供了时间上的上下文关系。鉴于此,我们发布了一个包含大量幻灯片场景的大规模音视频多模态语料库 SlideSpeech(https://slidespeech.github.io)。该语料库包含 1,705 个视频,1,000 多个小时,以及 473 个小时的高质量自动生成的语音转录抄本。在这项工作中,我们介绍了构建语料库的流水线,主要过程是结合Youtube外挂字幕和内部VAD和ASR系统进行数据挖掘生成。


构建语料库的流水线示意图

同时我们还提出了在可视上下文幻灯片中利用文本信息的基准系统。通过应用关键词提取和上下文语音识别(Contextual ASR)方法于基准系统中,我们展示了整合补充视频幻灯片中的文本信息以提高语音识别性能的潜力。

                                利用幻灯片文本信息的基准系统示意图

论文预印版下载地址:https://arxiv.org/abs/2309.05396

数据库开源地址:https://slidespeech.github.io/

考虑到SlideSpeech语料中视频数据包含的幻灯片与语音实时同步,相比于统一的稀有词列表,其能够提供更长的上下文相关信息。因此,我们提出了一种创新的长上下文偏置网络(LCB-net)用于音频-视觉语音识别(Audio-Visual Speech Recognition,AVSR),以更好地利用视频中的长时上下文信息。

具体来说,我们首先使用OCR技术来检测和识别幻灯片中的文本内容,其次我们采用关键词提取技术来获取文本内容中的关键词短语,最后我们将关键词拼接成长上下文文本和音频同时输入到我们的LCB-net模型中进行识别。LCB-net模型采用了双编码器结构,同时建模音频和长上下文文本信息。并且,我们还引入了一个显式的偏置词预测模块,通过使用二元交叉熵(BCE)损失函数显式预测长上下文文本中在音频中出现的关键偏置词。此外,为了增强LCB-net的泛化能力和稳健性,我们还采用了动态的关键词模拟策略。实验证明,我们提出的LCB-net热词模型,不仅能够显著提升关键词的识别效果,同时也能够提升非关键词的识别效果。


LCB-net 模型结构从技术与场景的接近性角度看,教育网课是该技术落地应用的重要方向之一,其通常采用的授课形式是PPT的视频讲解。网课种类丰富包含学术课程(数理化等)、语言课程(英语、日语等)、人工智能课程(计算机、编程、网页开发等)、职业培训课程(软件开发、市场营销等)等,包含了大量的专有名词,为语音识别带来了巨大的挑战,并且面对海量的PPT视频课程,学生很难进行笔记整理、课件沉淀、重点精听。未来我们的听悟,将针对该领域推动多模态技术的落地应用,帮助用户在教育网课学习中转录上课内容、总结筛选重点知识、沉淀学习笔记等。

LauraGPT语音大模型

ChatGPT 证明一个模型通过生成式预训练(GPT)能够统一处理各种各样的文本任务,包括机器翻译、文本摘要、口语语言理解等。语音作为人类最自然的沟通交流方式之一,也是一种重要的信号模态,那么,不禁会产生这样的疑问,能否将不同的语音任务统一到一个模型框架中,只需训练一个模型就可以原生的支持语音的识别、理解和生成,而不是通过不同模型之间的级联?带着这样的疑问和愿景,语音-文本多任务大模型应运而生,例如微软的VALL-E、VioLA和SpeechT5,谷歌的AudioPaLM和Gemini等模型。然而,现有语音-文本多任务大模型支持的语音-文本多模态任务比较有限,要么仅支持语音识别和理解任务,要么仅支持语音生成任务,缺乏对其他语音相关的信号处理、情感识别等任务的支持。此外,已有的语音-文本多任务大模型缺乏充分的定量评估,或者在性能上低于单任务的最优(SOTA)模型,并未体现出大模型的性能优势。这主要是由于现有的语音-文本大模型多使用离散化的语音表示来同意语音和文本的建模,而语音本身是一种连续信号,离散化的过程会造成严重的信息丢失,从而导致识别和理解类语音任务性能严重下降。基于上述发现和分析,我们提出了LauraGPT,它连续的语音表示作为输入来保证识别和理解类任务的性能,同时使用离散的语言表示作为输出来统一生成语音和文本的token,从而在保证模型通用能力的前提下,尽可能的提高了模型性能。LauraGPT的模型结构如下图所示,在LauraGPT中,我们将不同的语音-文本任务统一为如下形式的序列生成问题: "Task Inputs, Task ID, Task outputs"。其中任务输入可以是音频信号、文本或者他们的组合,其中音频信号通过AudioEncoder转变为连续的音频表征,而文本则通过Qwen Tokenizer进行子词拆分,而后经过 Embedding 层转换为词嵌入向量。其输出根据任务ID的不同,可能是离散化的语音token或者子词拆分后的文本token,其中离散化的语音token通过我们提出的 FunCodec 语音编码器得到,我们会在后面对其进行介绍。此外,我们还提出了one-step codec vocoder,它能够根据提供的条件序列和LauraGPT生成的token序列生成质量更高的音频信号。通过上述的建模方式,我们将不同的语音-文本任务统一使用LauraGPT进行建模,挖掘了不同任务之间可能存在的协同关系。LauraGPT直接支持的任务包括:语音识别(ASR)、语音翻译(S2TT)、语音合成(TTS)、机器翻译(MT)、语音增强(SE)、音频描述(AAC)、语音/文本情感识别(SER)和口语语言理解(SLU)。此外,通过将不同任务进行组合,LauraGPT还能够进行更加复杂的任务,例如同声传译、富文本转写、富文本翻译、噪声鲁邦语音识别等。为了保证可复现性,我们在开源的中英文双语种数据集上进行了实验验证,结果表明,LauraGPT在各种音频-本文处理任务的基准测试上达到了与现有SOTA模型相当或更优的性能。此外,我们还发现,不同的任务之间存在着不同程度的协同作用,例如,拥有大量的数据的ASR任务能够帮助数量较小的语音翻译任务做的更加准确。LauraGPT的提出使我们能够在未来仅需做不同任务的数据收集和整理就能够不断地提升性能;于此同时,还能够通过不同任务之间的协同作用,使用数据量较大的任务来帮助模型学习数据有限的任务。 LauraGPT模型结构图Demo Page: https://lauragpt.github.io/论文预印版下载地址:https://arxiv.org/abs/2310.04673

Qwen-Audio音频-语义大模型

语义大语言模型(LLM)相比于人类对于世界的感知,存在的一个短板是模型无法直观地感知和解析图像与音频信息。作为一种关键的信息表达方式,音频携带了丰富的、超越文字的信号细节,例如:人声中蕴含的情绪、语气和意图;自然界中的各类声响,像是火车的汽笛、钟声;以及音乐所传达的旋律和节奏等。因此,让语言模型掌握对这些丰富音频信号的感知与理解,并能够实现有效的音频互动,将语义大模型进化到多模态大模型是当前的一个研究和应用热点。

最近,遵循指令的音频-语言模型因其在与人类的音频交互中所表现出的潜力而受到了广泛关注。然而,缺少能够处理多种音频类型和任务的预训练音频模型,这限制了这一领域的发展。因此,大多数现有的研究只能支持有限范围的交互能力。

为此,通义实验室研究发布了Qwen-Audio音频-语义大模型。Qwen-Audio通过扩大音频-语言预训练的规模来解决这一局限性,涵盖了超过30种任务和各种音频类型,如人类语音、自然声音、音乐和歌曲,以促进全面的音频理解能力。然而,直接共同训练所有任务和数据集可能会导致干扰问题,因为不同数据集相关联的文本标签由于任务焦点、语言、注释粒度和文本结构的差异而显示出相当大的变化。

为了克服这种一对多的干扰,Qwen-Audio仔细设计了如下图的多任务训练框架,通过向解码器引入一系列层级标签来鼓励知识共享,并分别通过共享和指定的标签来避免干扰。


通过采用多任务预训练的Qwen-Audio模型,在公开的多个基准任务上都获得了SOTA的性能,如下图所示,在语音识别的AISHELL-1、AISHELL-2、Librispeech,语音翻译的CoVoST2任务,音频事件描述的Clotho任务等Qwen-Audio相比于开源的其他工作均有明显的性能优势,并且是当前这些任务的SOTA。


Qwen-Aduio通过多任务预训练具备了对音频的广泛理解能力。在此基础上,我们采用基于指令的微调技术来提升模型与人类意图对齐的能力,从而开发出名为Qwen-Audio-Chat的交互式聊天模型。

当前Qwen-Audio(https://modelscope.cn/models/qwen/Qwen-Audio/summary)和Qwen-Audio-Chat(https://modelscope.cn/models/qwen/Qwen-Audio-Chat/summary)模型已经发布到了Modelscope。可以到Modelscope进行在线体验。

同时Qwen-Audio相关的代码也通过Github进行了开源。

Github开源仓库: https://github.com/QwenLM/Qwen-Audio


02 音频分析与语音合成

 

说话人基础模型研究

基于上下文感知的说话人识别网络

在说话人识别领域中,主流的说话人识别模型大多是基于时延神经网络或者二维卷积网络,这些模型获得理想性能的同时,通常伴随着较多的参数量和较大的计算量。如何兼具准确识别和高效计算,是当前说话人识别领域的研究热点之一。因此我们提出高效的说话人识别模型CAM++。该模型主干部分采用基于密集型连接的时延网络(D-TDNN),每一层的输入均由前面所有层的输出拼接而成,这种层级特征复用可以显著提高网络的计算效率。同时,D-TDNN的每一层都嵌入了一个轻量级的上下文相关的掩蔽(Context-aware Mask,CAM)模块。CAM模块通过全局和段级的池化操作,提取不同尺度的上下文信息,生成的mask可以去除掉特征中的无关噪声。TDNN-CAM形成了局部-段级-全局特征的统一建模,可以学习到特征中更加丰富的说话人信息。CAM++前端嵌入了一个轻量的残差二维卷积网络,可以捕获更加局部和精细的频域信息,同时还对输入特征中可能存在的说话人特定频率模式偏移具有鲁棒性。

图示:CAM++模型结构示意图

VoxCeleb和CN-Celeb公开数据集上的实验结果显示,对比主流的ECAPA-TDNN和ResNet34模型,CAM++具有更高的识别准确率,同时在计算量和推理速度上有着明显的优势。

图示:VoxCeleb和CN-Celeb数据集实验结果

图示:计算复杂度对比

相关论文:https://www.isca-speech.org/archive/pdfs/interspeech_2023/wang23ha_interspeech.pdf


基于全局和局部特征融合的增强式网络

有效融合多尺度特征对于提高说话人识别性能至关重要。现有的大多数方法通过简单的操作,如特征求和或拼接,并采用逐层聚合的方式获取多尺度特征。本文提出了一种新的架构,称为增强式Res2Net(ERes2Net),通过局部和全局特征融合提高说话人识别性能。局部特征融合将一个单一残差块内的特征融合提取局部信号;全局特征融合使用不同层级输出的不同尺度声学特征聚合全局信号。为了实现有效的特征融合,ERes2Net架构中采用了注意力特征融合模块,代替了求和或串联操作。

ERes2Net在公开测试集VoxCeleb中取得优异性能,在模型参数量相近条件下,各模型识别性能对比如下所示: 论文下载地址:https://www.isca-speech.org/archive/interspeech_2023/chen23o_interspeech.html

基于非对比自监督学习的说话人识别

正则化DINO框架的自监督说话人识别

在无法获得说话人标签的语音数据条件下,训练一个鲁棒性强的说话人识别系统是一个极具挑战性的任务。研究表明全监督说话人识别和自监督说话人识别之间仍存在不小的性能差距。在这篇文章中,我们将自监督学习框架DINO应用于说话人识别任务,并针对说话人识别任务提出多样性正则和冗余度消除正则。多样性正则提高特征多样性,冗余度正则减小特征冗余度。不同数据增强方案的优劣在该系统中得以验证。大量的实验在公开数据集VoxCeleb上开展,表现出Regularized DINO框架的优越性。

正则化DINO框架在公开测试集VoxCeleb中取得优异性能,与同时期发表的相关模型性能对比如下:

论文下载地址:https://arxiv.org/pdf/2211.04168.pdf


基于自蒸馏原型网络的自监督说话人识别深度学习在说话人识别中广泛应用并取得优异性能,但是利用大量有标签语音数据训练神经网络提取说话人嵌入矢量需要耗费极大的人工成本,所以如何利用海量无标签数据获取优质说话人矢量成为一大研究痛点。而自监督学习利用自身监督信息学习对网络进行训练,有效降低了标注数据等步骤成本,因此我们提出一种基于自蒸馏原型网络的自监督学习说话人确认方法,提高说话人嵌入矢量的泛化性能。 自蒸馏原型网络由教师模型和学生模型构成,如上图所示,将同一条语音切分成若干长时和短时语音,长时语音输入教师特征编码器,教师多层感知机以及原型网络,短时语音输入学生特征编码器,学生多层感知机以及原型网络,使用教师模型输出指导学生模型输出,完成自蒸馏过程。基于自蒸馏原型网络的说话人识别性能如下: 论文下载地址:https://arxiv.org/pdf/2308.02774.pdf

 

多模态说话人区分


结合语义的说话人日志技术说话人日志(Speaker Diarization,SD)系统的目标是解决“谁在什么时间说话”的说话人识别问题,是一种可以广泛应用于客服、会议等多轮对话场景的语音技术。现有的相关技术大致分为两类,一类是基于分割聚类的传统方法,另一类则是基于深度神经网络的端到端方法,它们都是依赖纯语音信息的方案,在说话人音色相近、声学环境复杂的情况下往往容易产生说话人混淆、说话人转换点不清晰等错误。为此,我们着重探索了结合其他模态信息的说话人日志技术。

结合局部语义说话人日志系统

针对现有方法存在的问题,我们提出了结合语义的说话人日志系统。我们的系统如下图所示,区别于传统说话人日志系统的pipeline(VAD - Embedding - Cluster)的过程,我们通过引入Forced-Alignment模块来对齐文本和speaker embedding过程,并且将ASR输出的文本结果输入到语义模块中来提取说话人相关的语义信息。

关于语义部分,我们提出了两个用于提取语义中说话人信息的模块:对话预测(Dialogue Detection)和说话人转换预测(Speaker-Turn Detection),这两个模型基于Bert模型,使用大量带说话人ID的会议文本进行训练,可以用于判断多人对话的局部是否有说话人转换发生以及说话人转换发生的具体文本位置。

由于语义模块的结果也包含一些错误,尤其是在ASR系统解码出的文本上,文本错误会使得语义模型的性能有所下降,我们设计了一系列简单而有效的fusion策略来结合语音信息的说话人聚类结果,可以显著提升上述两个子模块的效果。通过结合传统说话人聚类的结果和语义说话人信息,我们可以对纯音频信息的说话人日志结果进行优化。我们在AIShell-4和M2MeT(Alimeeting)数据上的结果表明,结合语义的说话人日志系统在speaker-wer和cp-wer上都有显著提升。

相关论文:https://aclanthology.org/2023.findings-acl.884.pdf


局部语义说话人信息的全局扩散

上一系统语义说话人信息模块对说话人日志系统的主要作用在于说话人日志局部结果的修正,缺少对于全局说话人结果的优化。因此,我们提出了基于成对约束扩散方法的说话人日志系统,将局部说话人语义信息对全局说话人日志结果产生影响。首先我们将语义模块得到的说话人信息总结成两类成对约束(Pairwise Constraints):Must-Link和Cannot-Link。例如Dialogue Detection判断为非多人对话的一段时间中所有的speaker embedding都在Must-Link中,而Speaker-Turn Detection判断为转换点前后两段的speaker embeddings都在Cannot-Link中,这样我们就可以将语义信息抽象成方便使用的约束信息。我们提出了JPCP(Joint Pairwise Constraints Propagation)方法,将这些成对约束用于speaker embedding降维和说话人聚类过程中:(1)利用SSDR(semi-supervised dimension reduction)策略,利用特征值优化将成对约束引入到speaker embedding降维之中,调整了其用于聚类的speaker embedding分布。(2)引入了E2CP(exhaustive and efficient constraint propagation)方法,利用成对约束调整聚类相似度矩阵,从而改进说话人聚类的效果。(3)提出了E2CPM的改进方法,有效减少了语义结果解码错误所带来的负收益,对于高置信度的说话人相似度进行保留和强调。 我们的实验基于AIShell-4数据集,该数据集包括人数较多的多说话人会议,输入进入语义模块的文本则来自于ASR系统的解码结果(JPCP-I)。可以看到我们提出的JPCP方案可以有效提高说话人聚类的效果,其中我们提出的E2CPM方法起到了关键作用,并且说话人人数预测错误也得到一定的缓解。考虑到语言模型的蓬勃发展,为了充分探索我们方案的上限,我们还在仿真的成对约束(JPCP-S)上充分探索了我们方案的上限,可以看到当constraints的质量和数量进一步提升时,最终的结果有显著的提升,并且可以更好的减少说话人日志系统说话人人数预测错误。 相关论文:https://arxiv.org/pdf/2309.10456.pdf


结合视觉信息的说话人日志技术 在现实场景中部分声学环境可能非常复杂,存在背景噪声、混响和信道等干扰因素,这些因素会导致难以获取高质量的语音信息或转写文本信息。为了更准确地识别不同的说话人,结合视觉信息的说话人日志技术是一种非常具有潜力的解决方案,可以弥补语音信息受限的问题,进一步提升对说话人的理解和识别能力。为此,我们设计了一套结合音频、图像信息的多模态说话人日志系统。除了传统的基于声学的识别模块,我们添加了额外的视觉说话人日志模块。首先输入的视频流数据会进行场景检测分段,由于在每帧画面中可能存在不止一个人,说话人检测模块(Active speaker detector)会基于连续的视频帧进行说话者检测,输出当前正在说话的说话者信息,后续人脸识别模块会提取该说话者的人脸特征,并和音频特征进行对齐,修正说话人全局聚类的结果。 在一个包含访谈、综艺等多种类型视频数据上的实验结果表明,结合了视觉信息的说话人日志系统在分割错误率(Diarization Error Rate)上有着显著的提升。 说话人识别,说话人分割以及语种识别

说话人识别包括全监督和自监督说话人识别。全监督说话人识别中,包含自研模型CAM++, ERes2Net和经典模型ECAPA-TDNN在各公开训练集3D-Speaker, CN-Celeb和VoxCeleb上训练,推理代码。自监督说话人识别包含正则化DINO框架的训练,推理代码。说话人分割使用经典的分割聚类算法,首先使用VAD模型去除语音中静音片段,再通过说话人特征提取模型CAM++或ERes2Net提取鲁棒性的说话人矢量,最后使用经典聚类算法K-均值或谱聚类得到各说话人的时间戳对原语音片段进行分割。语种识别包括自研模型CAM++, ERes2Net在公开训练集3D-Speaker进行训练推理代码。除此之外,在平台ModelScope上开源上述所有预训练模型,模型下载量40w+。

语音合成模型



CSP语音合成模型

为了提高TTS的生成效果和流式推理高效性,通义实验室语音团队今年在自回归TTS声学模型(SAMBERT)的已有积累上升级到非自回归声学模型CSP (Chunk Streaming Parallel) 。其中多个子模块均进行了相应打磨:

  • 在韵律建模方面融合显隐式进行多尺度建模,并结合深度生成模型(Flow,LCM)进行韵律预测,使得声学模型在具有控制能力鲁棒性的同时对韵律有较好的预测刻画效果。
  • 采用chunk cache based decoder 支持高效的非自回归流式推理,满足工业应用需求。chunk 内可以并行计算提高推理效率,非自回归建模避免teacher-forcing带来的mismatch,便于模型效果整体端到端优化。
  • 采用深度生成模型(Flow,GAN)的Post-Net对decoder生成的mel-spectrogram进行refine, 在引入look-ahead减少chunk带来的流式损失的同时避免over-smoothing进一步提升mel-spectrogram的生成质量。

非自回归声学模型 CSP 相较于自回归声学模型 SAMBERT 在语速停顿等韵律方面具有一定优势,多音色评测CMOS avg +0.07, 推理效率CPU提升4倍,进一步结合GPU后推理效率提升18倍。该方案正结合具体的业务场景做进一步的细致优化,并逐渐进行线上音色的模型升级。相关代码及模型也将通过KAN-TTS和ModelScope进行开源。


个人声音定制

个人声音定制是基于KAN-TTS训练框架、AutoLabel自动标注工具以及SambertHifigan个性化语音合成基模型搭建的一款ModelScope Studio应用,用户可以在应用主页录制20句话等待数分钟后即可复刻自己的声音。 个人声音定制ModelScope地址:https://www.modelscope.cn/studios/damo/personal_tts/summary

03 多模态语义大模型

 

通义听悟应用实践


过去一年,得益于以OpenAI为首提出的大规模语言模型(LLM)的飞速发展,我们基于通义实验室的通义千问底座结合过往的口语语言处理经验进行了进一步的基础算法探索以及应用落地;本话题先针对语义板块结合大模型以及多模态在通义听悟场景下的应用实践进行讨论,再介绍口语语言处理领域的应用研究工作。

算法能力架构图

通义听悟是通义家族首个消费者端应用产品,聚焦于音视频内容记录和理解分析,期望在多媒体时代帮助用户梳理和挖掘音视频信息价值并沉淀为知识资产;针对听悟中用到的文本、语音、视觉、翻译等相关算法进行梳理,得到以下的算法架构图。

多模态分割

PPT视觉边界检测及大模型摘要

PPT视觉边界检测及大模型摘要是指提取视频中的PPT画面,并将每页PPT展示时所讲述的内容,提炼成摘要总结,便于快速回顾PPT及讲解内容。算法基本流程如下图所示,我们针对PPT展示的特点设计了结合视觉和文本的检测任务;具体为以固定时间间隔从视频中采集视频帧得到视频帧序列,首先进行前景物体过滤,之后依据运动和静止事件检测结果锚定PPT切换的时间戳,并进行时间戳校准、相似度去重、OCR识别PPT内容等后处理操作,最后对齐视频转写的文本和PPT内容,输入到通义听悟摘要大模型得到每张PPT对应讲解内容的摘要总结。


语义结构分割

文本语义主题分割旨在将长篇章文本按照各部分所表达的中心思想分割成一系列语义片段,该能力是通义听悟中“文本分段”以及“章节速览分话题”的基石。我们提出了两种方法来增强预训练语言模型感知文本连贯性的能力并提升主题分割性能,一是主题感知句子结构预测(Topic-aware Sentence Structure Prediction ,TSSP)任务,该任务首先构造主题和句子级别扰乱的文档作为增强数据,之后训练模型学习增强文档中相邻句子的原始逻辑结构关系;二是对比语义相似性学习(Contrastive Semantic Similarity Learning ,CSSL),该任务利用主题边界信息构造对比样本,确保同一主题中的句子表示具有较高的相似度,而不同主题的句子表示相似度较低。

实验结果表明,TSSP 和 CSSL 任务能提升 BERT、BigBird 和 Longformer 等预训练语言模型的主题分割效果,并且Longformer+TSSP+CSSL 在 Intra-domain 和 Out-of-domain 下均显著优于现有方法,并且在不同上下文长度下均能提升基准模型性能。此外,我们探索了不同的 Prompt 来测试 ChatGPT3.5 在长篇章文档的主题分割性能,结果显示 Longformer+TSSP+CSSL 模型在 Out-of-domain 配置下效果优于 ChatGPT3.5 的 zero-shot 和 one-shot 性能。

更多技术细节可以参考我们发表在 EMNLP2023 的技术论文:

https://aclanthology.org/2023.emnlp-main.341/

智能待办  

在智能待办方面,根据不同策略的对比结果最终采用了“小模型识别+大模型总结”的两段式方法,基于小模型行动项识别结果,通过大模型进行总结,以期提高用户体验。

行动项识别(action item detection)旨在识别会议记录中待办相关内容,通常建模为句子级别的二分类任务。然而,该任务面临着数据量少、标注质量低、类别不均衡等问题。为此,我们构建并开源了第一个带有行动项标注的中文会议数据集。在此基础上,我们提出了 Context-Drop 的方法,通过对比学习建模同时建模局部和全局上下文,在行动项识别表现和鲁棒性方面均取得更好的效果。此外,我们探索了 Lightweight model ensemble 的方法,利用不同的预训练模型,提高行动项识别的表现。

另一方面通过对大模型的效果摸底,可以观察到其在智能待办生成方面具有“准确率较低而可读性强”的特点。因此,我们先通过小模型召回待办相关片段,然后再通过大模型结合上下文内容进行总结,返回待办事项的任务描述、负责人、时间期限等要素信息,并通过探索上下文长度、Prompt、待办提示、聚合策略等方面的设置,不断改善行动项识别及总结的数据标注质量,优化大模型的总结表现。此外,训练过程中引入高难度负例样本强化了大模型的拒识能力,进一步激活大模型能力提高返回结果的准确率。

最终,业务侧主观评测结果显示上述的 两段式方法 显著优于单独的小模型检测和大模型端到端生成方法。

更多技术细节可以参考我们发表在 ICASSP2023 的技术论文:

https://ieeexplore.ieee.org/document/10096053

 

口语语义理解研究



ICASSP2023 MUG会议理解和生成大挑战  

以往的研究表明,会议记录的口语语言处理(Spoken Language Processing, 简称 SLP) 如关键词提取和摘要生成,对于会议的理解和生成 (Meeting Understanding and Generation) 包括信息的提取、组织排序及加工至关重要,可以显著提高用户获取重要信息的效率。

然而由于会议数据的高度保密性,会议内容理解和生成技术的发展一直受到大规模公开数据集缺失的制约。为了促进会议理解和生成技术的研究和发展,阿里巴巴通义语音实验室构建并发布了目前为止规模最大的中文会议数据集 Alimeeting4MUG Corpus(AMC),并基于会议人工转写结果进行了多项SLP任务的人工标注。AMC 也是目前为止支持最多 SLP任务开发的会议数据集。基于AMC 举办的 ICASSP2023 MUG 挑战目标是推动SLP在会议文本处理场景的研究并应对其中的多项核心挑战,包括人人交互场景下多样化的口语现象、会议场景下的长篇章文档建模等。

MUG挑战赛总共包含五个赛道:Track1-话题分割,Track2-话题及篇章抽取式摘要,Track3-话题标题生成,Track4-关键词抽取,Track5-行动项抽取。

详情可参阅往期文章介绍:ICASSP2023 通用会议理解及生成挑战(MUG)成功举办及获奖团队结果分析

数据集及基线系统见Github 链接:https://github.com/alibaba-damo-academy/SpokenNLP

竞赛相关技术论文: https://arxiv.org/abs/2303.13932 Overview of the ICASSP 2023 General Meeting Understanding and Generation Challenge (MUG)

Ditto: 一种简单而有效的改进句子嵌入的方法  

以前的研究诊断了预训练语言模型(例如BERT)在没有进行微调的情况下,其句子表示存在的各向异性问题。我们的分析揭示了BERT生成的句子嵌入对无信息词有偏向,这限制了它们在语义文本相似性(STS)任务中的性能。为了解决这种偏差,我们提出了一种简单而有效的无监督方法,即对角线注意力池化(Ditto),该方法利用基于模型的重要性估计对单词进行加权,并计算预训练模型中单词表示的加权平均值作为句子嵌入。Ditto可以轻松地作为后处理操作应用于任何预训练语言模型。与以往的句子嵌入方法相比,Ditto既不增加参数,也不需要任何学习。实证评估表明,我们提出的Ditto可以缓解各向异性问题,并改善各种预训练模型在STS基准上的表现。

观察1:强调了信息丰富单词的组合对于生成高质量句子嵌入的重要性。

我们使用了一种无需参数的探究技术——扰动掩码,用于分析预训练语言模型(例如BERT)。该技术通过对每对标记(x_i, x_j)施加两阶段的扰动过程,来衡量一个标记x_j对预测另一个标记x_i的影响。与以往研究不同,我们使用扰动掩码技术来分析原始的BERT和强大的句子嵌入模型SBERT。下图展示了代表英语PUD树库中示例句子的影响矩阵F的热图。比较BERT和SBERT的影响矩阵,发现SBERT的影响矩阵在诸如“social media”、“Capitol Hill”和“different”等信息丰富的标记上呈现出明显的垂直线,这表明信息丰富的标记对预测其他标记有很大的影响,因此掩盖这些标记可能严重影响句子中其他标记的预测结果。相比之下,BERT没有呈现这种模式。这一观察表明,信息丰富标记的组合可能是SBERT高质量句子嵌入的强有力指标。此外,我们计算了影响矩阵与TF-IDF的相关性,发现SBERT的影响矩阵与TF-IDF的相关性要比BERT的影响矩阵高得多,这与上述观察一致。值得注意的是,ELECTRA在STS任务上表现不佳,并且与TF-IDF之间的相关性较弱。因此,我们推测原始的BERT和ELECTRA的句子嵌入可能存在对无信息单词的偏向,从而限制了它们在STS任务上的性能。

观察2:指出了BERT的某些自注意力头对应于单词的重要性。

尽管在观察1中已经验证SBERT与TF-IDF的相关性要高于BERT,但BERT仍然显示出了适度的相关性。因此,我们假设信息丰富单词的语义信息已经被编码在BERT中,但尚未被充分利用。以往的研究通过将BERT的每个自注意头视为一个简单的、无需训练的分类器来分析BERT的注意机制,该分类器可根据输入的单词输出其最关注的其他单词。研究发现,某些自注意力头与语法和指代的语言概念相对应,例如,那些关注动词的直接宾语、名词的限定词、介词的宾语和指代性提及的自注意力头的准确性非常高。我们认为BERT中的注意力信息需要进一步利用。我们将特定的自注意力头表示为层-头编号(l-h),对于尺寸为BERT-base的模型,层的取值范围为1至12,头编号的取值范围为1至12。我们可视化了BERT每一层中每个头的注意权重,并关注信息丰富的单词。我们发现,某些自注意力头的从单词到自身的自注意力(即注意力矩阵的对角线值,称为对角线注意力)可能与单词的重要性相关。正如下图所示,信息丰富的单词“social media transitions”、“hill”和“little”在头1-10的注意力矩阵的对角线值较高。BERT头部1-10的注意力权重示意图(左侧)和头部11-11的注意力权重示意图(右侧)。线条的深浅代表着注意力权重的数值。注意力矩阵的前五个对角线数值用蓝色标示。

根据在观察部分的两个发现,我们提出了一种新的无需训练的方法,称为"Diagonal Attention Pooling"(Ditto),旨在改善PLM的句子嵌入。该方法通过权衡某个头部的对角线注意力来加权隐藏状态,从而获得更好的句子嵌入。Ditto通过计算BERT特定头部的注意力矩阵的对角线值,然后利用这些值加权计算句子嵌入。与基于计算影响矩阵的方法相比,Ditto更加高效,因为影响矩阵的计算代价较高。该方法的有效性得到了实验证实,同时也具有更高的计算效率。示意图如下图所示。

更多技术细节可以参考我们发表在EMNLP 2023 的技术论文:

Ditto: A Simple and Efficient Approach to Improve Sentence Embeddings

https://aclanthology.org/2023.emnlp-main.359/

开源代码:https://github.com/alibaba-damo-academy/SpokenNLP/tree/main/ditto

加权采样的掩码语言建模  

掩码语言建模(MLM)被广泛用于预训练语言模型。然而,MLM中的标准随机掩码策略导致了预训练语言模型(PLM)偏向高频标记,罕见标记的表示学习效果不佳,从而限制了PLM在下游任务上的性能。为了解决这一频率偏差问题,我们提出了两种简单有效的基于标记频率和训练损失的加权采样策略,用于掩盖标记。通过将这两种策略应用于BERT,我们得到了加权采样BERT(WSBERT)。实验表明,WSBERT在语义文本相似性基准(STS)上的性能显著优于BERT。在对WSBERT进行微调并与校准方法和提示学习相结合后,进一步改善了句子嵌入。我们还研究了在GLUE基准上对WSBERT进行微调,并展示了加权采样提高了骨干PLM的迁移学习能力。我们进一步分析并提供了有关WSBERT如何改善标记嵌入的见解。

首先,我们提出了一种对标记频率进行转换的方法,以减少罕见标记的影响。然后,根据转换后的频率计算了每个标记的采样权重。对于句子中的每个标记,根据其计算得到的采样权重进行归一化,计算出掩码该标记的采样概率。

其次,我们提出了动态加权采样策略,旨在解决传统频率加权采样不考虑骨干掩码语言模型学习状态的问题。动态加权采样通过存储每个标记的采样权重并在每个迭代的每个批次之后更新权重字典,而不是在迭代结束后更新权重。在每个小批次中,当前模型预测掩码标记并计算标记的交叉熵损失,然后使用损失值计算采样权重。动态加权采样的设计目的在于扩大不同标记之间的采样权重差异,进一步提高罕见标记的采样概率。在预训练的每个迭代中,权重字典会更新为每个标记的最新采样权重,以便在下一个迭代中使用。

以上是提出的动态加权采样的示意图,用于掩码语言建模(MLM)。选择掩盖标记的采样权重是基于当前 PLM 对该标记的预测损失计算得出的。我们将每个标记的采样权重存储在权重字典中。

更多技术细节可以参考我们发表在ICASSP 2023 (Top 3% Paper Recognition) 的技术论文:Weighted Sampling for Masked Language Modeling

https://arxiv.org/abs/2302.14225


04 开源概况

 

经过2023年的建设,Modelscope魔搭社区语音板块已经初具规模。不仅包含音频领域数十个研究方向的,大量工业级的开源模型,也包含相应的工具包,以及进一步打通了模型的推理、训练、微调和部署的pipeline。

>>>>>>往期部分开源发布:

魔搭语音更新|七大模型最新开源,推理速度升级,几行代码可实现微调

开源上新|FunASR离线文件转写软件包3.0

开源上新|FunASR英文离线文件转写软件包发布

开源音视频剪辑工具:FunASR-APP ClipVideo

零门槛玩转AI声音定制,3分钟即可复刻你的发音模型

以下会就modelscope配套的几个github开源项目进行进一步的介绍。


FunASR开源项目



前面我们介绍了语音识别服务基本框架,包含语音识别声学模型、音端点检测、标点恢复、时间戳预测等模块。Modelscope上在各个技术方向上均有性能优越的开源模型。但是如何进一步讲这些开源模型有效的组成服务,打通学术研究和工业应用。

基于此,我们在github上发布了FunASR工具包。FunASR希望在语音识别的学术研究和工业应用之间架起一座桥梁。通过发布工业级语音识别模型的训练和微调,研究人员和开发人员可以更方便地进行语音识别模型的研究和生产,并推动语音识别生态的发展。

FunASR开源仓库:https://github.com/alibaba-damo-academy/FunASR

FunASR社区软件包地址:https://github.com/alibaba-damo-academy/FunASR/blob/main/runtime/readme_cn.md围绕上述语音识别链路能力,FunASR提供多种功能,包括语音识别(ASR)、语音端点检测(VAD)、标点恢复、语言模型、说话人验证、说话人分离和多人对话语音识别等。FunASR提供了便捷的脚本和教程,支持预训练好的模型的推理与微调。同时推出了语音识别服务部署社区软件包,支持用户便捷高效的部署工业级的语音识别服务。

离线文件转写软件包目前支持中文、英文离线文件转写软件包,结合了通义语音实验室在Modelscope社区开源的FSMN-VAD语音端点检测、Paraformer语音识别声学模型、CT-Transformer标点断句等模型,并提供了可方便快捷部署到本地或者云端服务器的部署流程。开发者可以基于软件包,便捷的构建高精度、高并发、高效率的离线文件转写服务。典型应用场景为,录音文件转写,电话质检,音视频字幕等。离线文件转写软件包集成了ffmpeg,支持多种音视频文件格式,包括音频(flac, mp3, ogg, opus, m4a, wav, pcm等)、视频(mp4、mov、avi、mkv、wmv、flv等)格式;同时支持时间戳输出,可输出字级别、句子级别时间戳;支持加载Ngram语言模型,采用TLG(Token、Lexicon、Grammar)结构构建统一解码网络,直接将音素/字符序列、发音词典、语言模型编译形成T、L、G三个wfst子网络,再通过composition、determinization、minimization等一系列操作生成统一解码网络,支持从原始语料和发音词典到最终解码资源的全流程编译,便于用户自行定制适合自身的解码资源。离线文件转写软件包同时支持Contextual-Paraformer热词与wfst热词增强。Contextual-Paraformer将Paraformer模型作为主体,在NAR decoder中引入了一个multi-headed attention与最后一层的cross attention并列,分别计算decoder表征与热词表征、encoder输出的注意力再进行结合,在解码时支持对用户输入的任意热词进行激励。wfst热词增强采用AC自动机结构进行热词网络构图,解决热词前缀重叠场景下难以有效激励的问题;采用对主解码网络弧上ilabel音素/字符序列信息进行热词发现及匹配,而非在网络搜索出词时再对整词匹配,能够更早实现对尚未出词热词路径激励,避免热词路径被过早误裁减,其次也可避免由于热词分词结构不一致而导致匹配失败;采用过程渐进激励和整词激励相结合的方式,既可以过程中每匹配成功一步即进行等量激励,也可以支持用户针对不同的热词做差异化的激励分配置,在热词整词出词时进一步施加对应的补偿或惩罚,进而提高热词综合效果。

实时语音听写软件包集成了实时语音端点检测模型(FSMN-VAD-realtime),语音识别实时模型(Paraformer-online),语音识别非流式模型(Paraformer-offline),标点预测模型(CT-Transformer)。采用多模型协同,既可以实时的进行语音转文字,也可以在说话句尾用高精度转写文字修正输出,输出文字带有标点,开发者可以基于软件包,便捷的构建高精度、高并发、高效率的实时语音听写服务。典型应用场景为,会议场景实时听写,人机交互场景对话,数字人/虚拟人,大语言模型语音输入等。实时语音听写支持以下几种推理模式:1)实时语音听写服务(ASR-realtime-transcribe):客户端连续音频数据,服务端检测到音频数据后,每隔600ms进行一次流式模型推理,并将识别结果发送给客户端。同时,服务端会在说话停顿处,做标点断句恢复,修正识别文字。2)非实时一句话转写(ASR-offline-transcribe):客户端连续音频数据,服务端检测到音频数据后,在说话停顿处进行一次非流式模型推理,输出带有标点文字,并将识别结果发送给客户端。3)实时与非实时一体化协同(ASR-realtime&offline-twoPass):客户端连续音频数据,服务端检测到音频数据后,每隔600ms进行一次流式模型推理,并将识别结果发送给客户端。同时,服务端会在说话停顿处,进行一次非流式模型推理,输出带有标点文字,修正识别文字。


FunCodec

FunASR 的主要功能集中在对语音的识别和理解方面,相当于给机器加上了耳朵,而 FunCodec 的主要目标则是语音的量化表示与生成,即给机器加上嘴巴的能力。

语音量化(Speech Codec)的目的是将语音信号编码为一个个离散的token,在语音通信和存储领域具有广泛的应用场景。近些年,得益于深度神经网络的快速发展,研究者们提出了基于神经编解码的语音量化模型。与基于专家知识的传统语音量化方法相比,基于神经网络的模型在更低的码率下获得了更高的语音质量。

与此同时,语音的量化编码也使大规模语言模型LLM具备了统一建模语音和文本的能力,例如VALL-E语音合成模型、VioLA、AudioPALM等语音-文本理解模型等。在此背景下,我们开源了 FunCodec 语音量化编码工具包。

  • 它提供了SoundStream、Encodec等SOTA模型的开源实现,以及我们在标准学术数据和内部大规模数据上的预训练模型,希望以此加速该领域的相关研究;
  • 考虑到语音在时频域上的结构性,我们进一步提出了时频域的量化模型,它能够在保证量化语音质量的基础上,只需更少的参数和计算量。我们发现频域模型对包括语音在内的音频信号具备更好的建模能力,未来我们将会在FunCodec发布统一音频量化模型,能够处理各种各样的音频信号,包括:语音、声学事件、音乐等;
  • 为了探究声学-语义解耦对语音量化带来的影响,我们提出了semantic augmented 的 residual vector quantizer 模块,在极低比特率下展现了较高的语音质量。

以上所有模型都已在ModelScope开源。与语音量化模型一同,我们还会在FunCodec中发布LauraGPT、VALL-E、SpearTTS等基于离散token的语音合成模型。

FunCodec 模型结构

论文预印版下载地址:https://arxiv.org/abs/2309.07405v2

FunCodec开源代码:https://github.com/alibaba-damo-academy/FunCodec

FunCodec开源模型:https://www.modelscope.cn/models?page=1&tasks=audio-codec&type=audio


3D-Speaker开源项目


3D-Speaker是通义实验室语音团队今年推出的说话人相关的开源项目。3D-Speaker的名称有两层含义,一是包含声学信息、语义信息、视觉信息3种模态的说话人识别技术,二是开源了一个多设备(multi-Device)、多距离(multi-Distance)和多方言(multi-Dialect)中文说话人语音数据集。

3D-Speaker开源项目包含说话人识别,说话人确认以及说话人分割任务的训练及推理代码,以及ModelScope上开源的相关预训练模型。

项目地址:https://github.com/alibaba-damo-academy/3D-Speaker

3D-Speaker数据集,包含超过1万名说话人,其中训练集10000人,测试集240人。我们数据在录制时每个说话人同时在多个设备上进行录音,多个设备距离声源不同位置,有些说话人还使用多种方言。我们的数据集包括8种设备、14种中文方言以及0.1m~4m等12种距离。

针对说话人验证任务,我们提供了三个标准测试trials:Trials Cross-Device、Trials Cross-Distance和Trials Cross-Dialect。针对方言语种识别(LID)任务,我们也提供了一个标准测试集以让结果容易比较。3D-Speaker数据使用CC BY-SA 4.0协议。

我们数据网站地址https://3dspeaker.github.io/,提供了数据下载链接以及发布的baseline等信息。我们在文章中汇报的相关模型(ERes2Net、CAM++等)以及数据的一些预处理代码也已开源,请参考我们的开源项目https://github.com/alibaba-damo-academy/3D-Speaker。如果您基于3D-Speaker数据做出了优秀的结果,也非常欢迎向我们的榜单上提交您的结果。

相关论文:https://arxiv.org/pdf/2306.15354.pdf

 

Autolabeling开源项目


Autolabel 是我们今年推出的音频自动化标注工具,该工具集成了语音实验室多种原子能力,如语音降噪(ANS)、语音识别(ASR)、语音端点检测(VAD)、时间戳预测(FA)、韵律标注(PWPP)等,使得用户可以使用已有的音频,直接通过 一个Autolabel工具,获取音频所对应的文本、音素、音素时间戳、韵律标注等多种标注信息,适配于后续的语音合成及其他相关任务,如轻量化定制和大规模语音数据标注等。目前该工具的下载量达到11w+。

Modelscope地址:https://modelscope.cn/models/damo/speech_ptts_autolabel_16k

在Autolabel中,支持三种采样率(16k 24k 48k)音频的输入,首先通过ANS对其进行降噪,其次为保证切分后的音频长度合适且尽可能保留语音完整性,对降噪后音频进行多个阈值的VAD切分和ASR获取对应文本,然后通过文本转音素和FA获取音素及其对应时间戳,再根据文本和真实音频标注PWPP进行韵律标注预测,最后整理所有生成对应标注。其中如ANS和VAD对音频有特殊处理等为可选工具。

 

KAN-TTS开源项目


KAN-TTS是通义实验室语音团队开源的一套语音合成模型训练框架,包含Sambert、nsf-hifigan等模型的训练、推理脚本,能够训练出具有高自然度和韵律丰富度的语音合成模型。

KAN-TTS支持中、英、日、德、韩等十一种外语和上海话、四川话、粤语等多地方言的数据处理,目前KAN-TTS已在ModelScope开源社区贡献了40多个语音合成模型,覆盖多情感、多语言、个性化人声定制等多个类别。同时KAN-TTS还配套了自动化数据标注工具AutoLabel,开发者可根据这套toolkit自由定制自己的语音合成模型。

KAN-TTS github仓库地址:https://github.com/alibaba-damo-academy/KAN-TTS

KAN-TTS ModelScope模型列表:https://www.modelscope.cn/models?page=1&tasks=text-to-speech&type=audio


我们不断完善和更新开源项目内容,建立开放的开发者社区答疑,如果您有相关项目切磋交流,欢迎在项目中给我们留言。

相关文章
|
23小时前
|
传感器 人工智能 搜索推荐
人工智能(AI)与物联网(IoT)的融合是当今技术领域的一个重要趋势
人工智能(AI)与物联网(IoT)的融合是当今技术领域的一个重要趋势
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
AIGC (AI-Generated Content) 技术深度探索:现状、挑战与未来愿景
AIGC (AI-Generated Content) 技术深度探索:现状、挑战与未来愿景
12 0
|
1天前
|
人工智能 搜索推荐 算法
未来智能交互:AI技术在日常生活中的应用与挑战
随着人工智能(AI)技术的迅速发展,智能交互已经深刻影响了我们的日常生活。本文探讨了AI技术在各个领域的应用现状以及未来可能面临的挑战,从语音助手到智能家居,再到个性化推荐系统,AI正在如何重塑我们与科技互动的方式。
|
1天前
|
人工智能 运维 搜索推荐
《百炼成金-大金融模型新篇章》––07.问题5:“杀手级通用大模型vs百花齐放专属大模型”,企业级AI应用的价值自证?
《百炼成金-大金融模型新篇章》––07.问题5:“杀手级通用大模型vs百花齐放专属大模型”,企业级AI应用的价值自证?
|
2天前
|
机器学习/深度学习 人工智能 搜索推荐
AI在市场营销技术中的崛起:转变数字营销策略
AI在市场营销技术中的崛起:转变数字营销策略
|
2天前
|
机器学习/深度学习 人工智能 Rust
全球最大开源大模型!马斯克正式开源Grok AI
全球最大开源大模型!马斯克正式开源Grok AI
|
2天前
|
人工智能 安全 开发者
技术乐观主义者和末日论者在硅谷展开的关于AI潜藏的危险的激烈辩论
技术乐观主义者和末日论者在硅谷展开的关于AI潜藏的危险的激烈辩论
|
2天前
|
人工智能 算法 安全
AI技术的未来发展与挑战
【6月更文挑战第15天】本文将探讨AI技术的未来发展和可能面临的挑战。随着科技的进步,AI已经在许多领域发挥了重要作用,但同时也带来了一些挑战。我们将从技术、伦理和社会角度来探讨这些问题。
17 6
|
3天前
|
数据采集 存储 人工智能
利用AI技术改善数字化转型项目的九种方法
利用AI技术改善数字化转型项目的九种方法
|
6天前
|
人工智能
当AI“复活”成为产业:确保数字生命技术始终用于正途的探讨
随着科技的飞速发展,AI技术日益成熟,我们迎来了一个令人瞩目的时代——当AI“复活”不再是科幻电影的情节,而是逐渐成为现实世界的产业,这其中就包括所谓的“数字生命”技术。在这一背景下,通过人物已有影像、声音、语言等内容的学习,克隆数字化的人物形象成为了可能,创造出数字化的“复活”形象。但是正如电影《流浪地球2》所展示的那样,图恒宇将女儿的意识上传到超强计算机,创造出拥有自我意识的数字图丫丫,这一技术奇迹引发了关于伦理、法律和社会责任的深刻探讨,所以说当AI“复活”技术逐渐从实验室走向产业化,我们不得不面对一个严峻的问题:如何确保这项技术始终用于正途?那么本文就来聊聊如何确保数字生命技术始终用于
18 1
当AI“复活”成为产业:确保数字生命技术始终用于正途的探讨

热门文章

最新文章