语音顶会Interspeech 论文解读|Towards Language-Universal Mandarin-English Speech Recognition

简介: Interspeech是世界上规模最大,最全面的顶级语音领域会议,本文为Shiliang Zhang, Yuan Liu, Ming Lei, Bin Ma, Lei Xie的入选论文

2019年,国际语音交流协会INTERSPEECH第20届年会将于9月15日至19日在奥地利格拉茨举行。Interspeech是世界上规模最大,最全面的顶级语音领域会议,近2000名一线业界和学界人士将会参与包括主题演讲,Tutorial,论文讲解和主会展览等活动,本次阿里论文有8篇入选,本文为Shiliang Zhang, Yuan Liu, Ming Lei, Bin Ma, Lei Xie的论文《Towards Language-Universal Mandarin-English Speech Recognition》

点击下载论文

文章解读

目前的语音识别系统主要是针对特定语种的识别系统,例如中文语音识别,英文语音识别系统等。对于一个智能交互系统,通常需要部署不同语种的语音识别系统,这个极大增加了系统的存储开销。同时很多时候用户说某个语种是没有先验的,而且存在用户可能会在一句话中使用多个语种。这类问题称之为多语种语音识别和混读语音识别。其中具有代表性的是中英文混读情况。如何训练一个通用的中英文语音识别系统,可以不需要语种先验信息的前提下可以同时识别中文、英文、以及中英文混读是一个研究难点。

针对这个问题,本次INTERSPEECH论文,我们提出一种新颖的bilingual-AM (acoustic model)。具体的,我们利用大量单一语种的中文数据和英文数据先分别预训练得到一个中文声学模型和英文声学模型。 然后构建了如下图的bilingual-AM:

8-1.png

Bilingual-AM的输出层采用混合建模单元(中文—“字”,英文—“subword”)。声学模型结构采用深度前馈序列记忆神经网络(Deep Feedforward Sequential Memory Network, DFSMN), 优化准则采用CTC(Connectionist Temporal Classification)和 sMBR(state-level Minimum Bayes Risk)。进一步的我们通过将中文和英文n-gram语言模型进行插值得到一个混合的语言模型。

模型验证:我们先基于DFSMN-CTC-sMBR构建了基线的单一语种的语音识别系统,其性能如下图1所示。进一步的我们采用单一语种的中文和英文数据得到一个混合的数据,基于Bilingual-DFSMN-CTC-sMBR训练了中英文识别系统,性能如下图2所示。结果表明我们提出的中英文识别系统,在不需要语种先验信息的情况下,可以同时识别中文和英文,相比于特定语种的中文和英文识别系统,性能基本无损。

8-2.png
图 1. 特定语种的中文和英文识别系统性能。

8-3.png
图 2. 中英文混读识别系统在中文测试集和英文测试集上的性能。

进一步的我们在中英文混读测试集上对比了我们提出的方法和之前普遍采用的方法的性能。如下图3,我们提出的方法相比于基线系统具有明显的性能提升。

8-4.png
图 3. 对比不同的中英文混读系统在混读测试集上的性能。

文章摘要

Multilingual and code switching speech recognition are two challenging tasks that are studied separately in many previous works. In this work, we jointly study multilingual and codeswitching problems, and present a language-universal bilingual system for Mandarin-English speech recognition. Specifically, we propose a novel bilingual acoustic model, which consists of two monolingual system initialized subnets and a shared output layer corresponding to the Character-Subword acoustic modeling units. The bilingual acoustic model is trained using a large Mandarin-English corpus with CTC and sMBR criteria. We find that this model, which is not given any information about language identity, can achieve comparable performance in monolingual Mandarin and English test sets compared to the well-trained language-specific Mandarin and English ASR systems, respectively. More importantly, the proposed bilingual model can automatically learn the language switching. Experimental results on a Mandarin-English code-switching test set show that it can achieve 11.8% and 17.9% relative error reduction on Mandarin and English parts, respectively.
Index Terms: speech recognition, Mandarin-English, codeswitching, bilingual, DFSMN-CTC-sMBR

阿里云开发者社区整理

相关实践学习
达摩院智能语音交互 - 声纹识别技术
声纹识别是基于每个发音人的发音器官构造不同,识别当前发音人的身份。按照任务具体分为两种: 声纹辨认:从说话人集合中判别出测试语音所属的说话人,为多选一的问题 声纹确认:判断测试语音是否由目标说话人所说,是二选一的问题(是或者不是) 按照应用具体分为两种: 文本相关:要求使用者重复指定的话语,通常包含与训练信息相同的文本(精度较高,适合当前应用模式) 文本无关:对使用者发音内容和语言没有要求,受信道环境影响比较大,精度不高 本课程主要介绍声纹识别的原型技术、系统架构及应用案例等。 讲师介绍: 郑斯奇,达摩院算法专家,毕业于美国哈佛大学,研究方向包括声纹识别、性别、年龄、语种识别等。致力于推动端侧声纹与个性化技术的研究和大规模应用。
相关文章
|
7月前
|
机器学习/深度学习 JSON 自然语言处理
[GPT-1]论文实现:Improving Language Understanding by Generative Pre-Training
[GPT-1]论文实现:Improving Language Understanding by Generative Pre-Training
133 1
|
7月前
|
机器学习/深度学习 数据采集 自然语言处理
[GPT-2]论文解读:Language Models are Unsupervised Multitask Learners
[GPT-2]论文解读:Language Models are Unsupervised Multitask Learners
281 1
|
7月前
|
机器学习/深度学习 vr&ar
[XLNet]论文解读:XLNet:Generalized Autoregressive Pretraining for Language Understanding
[XLNet]论文解读:XLNet:Generalized Autoregressive Pretraining for Language Understanding
68 0
|
7月前
|
机器学习/深度学习 编解码 自然语言处理
【虚拟人综述论文】Human-Computer Interaction System: A Survey of Talking-Head Generation
【虚拟人综述论文】Human-Computer Interaction System: A Survey of Talking-Head Generation
|
机器学习/深度学习 自然语言处理 算法
【论文精读】COLING 2022-KiPT: Knowledge-injected Prompt Tuning for Event Detection
事件检测旨在通过识别和分类事件触发词(最具代表性的单词)来从文本中检测事件。现有的大部分工作严重依赖复杂的下游网络,需要足够的训练数据。
187 0
【论文精读】COLING 2022-KiPT: Knowledge-injected Prompt Tuning for Event Detection
|
机器学习/深度学习 移动开发 数据挖掘
Understanding Few-Shot Learning in Computer Vision: What You Need to Know
Few-Shot Learning is a sub-area of machine learning. It’s about classifying new data when you have only a few training samples with supervised information. FSL is a rather young area that needs more research and refinement. As of today, you can use it in CV tasks. A computer vision model can work
185 0
Understanding Few-Shot Learning in Computer Vision: What You Need to Know
|
机器学习/深度学习 自然语言处理 API
多模态 Generalized Visual Language Models
多年来,人们一直在研究处理图像以生成文本,例如图像字幕和视觉问答。传统上,此类系统依赖对象检测网络作为视觉编码器来捕获视觉特征,然后通过文本解码器生成文本。鉴于现有的大量文献,在这篇文章中,我想只关注解决视觉语言任务的一种方法,即扩展预训练的通用语言模型以能够消费视觉信号。
多模态 Generalized Visual Language Models
《Towards Language-Universal Mandarin-English Speech Recognition》电子版地址
Towards Language-Universal Mandarin-English Speech Recognition
78 0
《Towards Language-Universal Mandarin-English Speech Recognition》电子版地址
|
机器学习/深度学习 自然语言处理 分布式计算
【论文翻译】DeepWalk: Online Learning of Social Representations
本文提出DeepWalk算法——一种用于学习网络中顶点的潜在表示的新方法,这些潜在表示将社会关系编码到连续的向量空间中,以至于能容易地用到统计模型中。DeepWalk将语言建模和无监督特征学习(或深度学习)的最近进展,从单词序列推广到图中。
577 0
【论文翻译】DeepWalk: Online Learning of Social Representations
|
机器学习/深度学习 算法 数据挖掘
Paper:《A Unified Approach to Interpreting Model Predictions》论文解读与翻译
Paper:《A Unified Approach to Interpreting Model Predictions》论文解读与翻译