语音顶会Interspeech 论文解读|Towards Language-Universal Mandarin-English Speech Recognition

简介: Interspeech是世界上规模最大,最全面的顶级语音领域会议,本文为Shiliang Zhang, Yuan Liu, Ming Lei, Bin Ma, Lei Xie的入选论文

2019年,国际语音交流协会INTERSPEECH第20届年会将于9月15日至19日在奥地利格拉茨举行。Interspeech是世界上规模最大,最全面的顶级语音领域会议,近2000名一线业界和学界人士将会参与包括主题演讲,Tutorial,论文讲解和主会展览等活动,本次阿里论文有8篇入选,本文为Shiliang Zhang, Yuan Liu, Ming Lei, Bin Ma, Lei Xie的论文《Towards Language-Universal Mandarin-English Speech Recognition》

点击下载论文

文章解读

目前的语音识别系统主要是针对特定语种的识别系统,例如中文语音识别,英文语音识别系统等。对于一个智能交互系统,通常需要部署不同语种的语音识别系统,这个极大增加了系统的存储开销。同时很多时候用户说某个语种是没有先验的,而且存在用户可能会在一句话中使用多个语种。这类问题称之为多语种语音识别和混读语音识别。其中具有代表性的是中英文混读情况。如何训练一个通用的中英文语音识别系统,可以不需要语种先验信息的前提下可以同时识别中文、英文、以及中英文混读是一个研究难点。

针对这个问题,本次INTERSPEECH论文,我们提出一种新颖的bilingual-AM (acoustic model)。具体的,我们利用大量单一语种的中文数据和英文数据先分别预训练得到一个中文声学模型和英文声学模型。 然后构建了如下图的bilingual-AM:

8-1.png

Bilingual-AM的输出层采用混合建模单元(中文—“字”,英文—“subword”)。声学模型结构采用深度前馈序列记忆神经网络(Deep Feedforward Sequential Memory Network, DFSMN), 优化准则采用CTC(Connectionist Temporal Classification)和 sMBR(state-level Minimum Bayes Risk)。进一步的我们通过将中文和英文n-gram语言模型进行插值得到一个混合的语言模型。

模型验证:我们先基于DFSMN-CTC-sMBR构建了基线的单一语种的语音识别系统,其性能如下图1所示。进一步的我们采用单一语种的中文和英文数据得到一个混合的数据,基于Bilingual-DFSMN-CTC-sMBR训练了中英文识别系统,性能如下图2所示。结果表明我们提出的中英文识别系统,在不需要语种先验信息的情况下,可以同时识别中文和英文,相比于特定语种的中文和英文识别系统,性能基本无损。

8-2.png
图 1. 特定语种的中文和英文识别系统性能。

8-3.png
图 2. 中英文混读识别系统在中文测试集和英文测试集上的性能。

进一步的我们在中英文混读测试集上对比了我们提出的方法和之前普遍采用的方法的性能。如下图3,我们提出的方法相比于基线系统具有明显的性能提升。

8-4.png
图 3. 对比不同的中英文混读系统在混读测试集上的性能。

文章摘要

Multilingual and code switching speech recognition are two challenging tasks that are studied separately in many previous works. In this work, we jointly study multilingual and codeswitching problems, and present a language-universal bilingual system for Mandarin-English speech recognition. Specifically, we propose a novel bilingual acoustic model, which consists of two monolingual system initialized subnets and a shared output layer corresponding to the Character-Subword acoustic modeling units. The bilingual acoustic model is trained using a large Mandarin-English corpus with CTC and sMBR criteria. We find that this model, which is not given any information about language identity, can achieve comparable performance in monolingual Mandarin and English test sets compared to the well-trained language-specific Mandarin and English ASR systems, respectively. More importantly, the proposed bilingual model can automatically learn the language switching. Experimental results on a Mandarin-English code-switching test set show that it can achieve 11.8% and 17.9% relative error reduction on Mandarin and English parts, respectively.
Index Terms: speech recognition, Mandarin-English, codeswitching, bilingual, DFSMN-CTC-sMBR

阿里云开发者社区整理

相关实践学习
达摩院智能语音交互 - 声纹识别技术
声纹识别是基于每个发音人的发音器官构造不同,识别当前发音人的身份。按照任务具体分为两种: 声纹辨认:从说话人集合中判别出测试语音所属的说话人,为多选一的问题 声纹确认:判断测试语音是否由目标说话人所说,是二选一的问题(是或者不是) 按照应用具体分为两种: 文本相关:要求使用者重复指定的话语,通常包含与训练信息相同的文本(精度较高,适合当前应用模式) 文本无关:对使用者发音内容和语言没有要求,受信道环境影响比较大,精度不高 本课程主要介绍声纹识别的原型技术、系统架构及应用案例等。 讲师介绍: 郑斯奇,达摩院算法专家,毕业于美国哈佛大学,研究方向包括声纹识别、性别、年龄、语种识别等。致力于推动端侧声纹与个性化技术的研究和大规模应用。
相关文章
|
6月前
|
机器学习/深度学习 JSON 自然语言处理
[GPT-1]论文实现:Improving Language Understanding by Generative Pre-Training
[GPT-1]论文实现:Improving Language Understanding by Generative Pre-Training
112 1
|
6月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
[NNLM]论文实现:A Neural Probabilistic Language Model [Yoshua Bengio, Rejean Ducharme, Pascal Vincent]
[NNLM]论文实现:A Neural Probabilistic Language Model [Yoshua Bengio, Rejean Ducharme, Pascal Vincent]
31 0
|
机器学习/深度学习 算法 数据处理
Stanford 机器学习练习 Part 3 Neural Networks: Representation
从神经网络开始,感觉自己慢慢跟不上课程的节奏了,一些代码好多参考了别人的代码,而且,让我现在单独写也不一定写的出来了。学习就是一件慢慢积累的过程,两年前我学算法的时候,好多算法都完全看不懂,但后来,看的多了,做的多了,有一天就茅塞顿开。所有的困难都是一时的,只要坚持下去,一切问题都会解决的。没忍住发了点鸡汤文。
34 0
|
机器学习/深度学习 自然语言处理 算法
【论文精读】COLING 2022-KiPT: Knowledge-injected Prompt Tuning for Event Detection
事件检测旨在通过识别和分类事件触发词(最具代表性的单词)来从文本中检测事件。现有的大部分工作严重依赖复杂的下游网络,需要足够的训练数据。
174 0
【论文精读】COLING 2022-KiPT: Knowledge-injected Prompt Tuning for Event Detection
|
自然语言处理 数据挖掘
【论文解读】Do Prompts Solve NLP Tasks Using Natural Language?
提示学习实现文本分类的各类方法对比的论文
95 0
|
机器学习/深度学习 移动开发 数据挖掘
Understanding Few-Shot Learning in Computer Vision: What You Need to Know
Few-Shot Learning is a sub-area of machine learning. It’s about classifying new data when you have only a few training samples with supervised information. FSL is a rather young area that needs more research and refinement. As of today, you can use it in CV tasks. A computer vision model can work
180 0
Understanding Few-Shot Learning in Computer Vision: What You Need to Know
|
机器学习/深度学习 存储 编解码
【论文泛读】轻量化之MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications(上)
【论文泛读】轻量化之MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
【论文泛读】轻量化之MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications(上)
|
机器学习/深度学习 编解码 固态存储
【论文泛读】轻量化之MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications(下)
【论文泛读】轻量化之MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications(下)
【论文泛读】轻量化之MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications(下)
《Towards Language-Universal Mandarin-English Speech Recognition》电子版地址
Towards Language-Universal Mandarin-English Speech Recognition
75 0
《Towards Language-Universal Mandarin-English Speech Recognition》电子版地址
|
机器学习/深度学习 自然语言处理 搜索推荐
Re23:读论文 How Does NLP Benefit Legal System: A Summary of Legal Artificial Intelligence
Re23:读论文 How Does NLP Benefit Legal System: A Summary of Legal Artificial Intelligence
Re23:读论文 How Does NLP Benefit Legal System: A Summary of Legal Artificial Intelligence