INTERSPEECH 2017系列 | 语音识别之后处理技术

简介: 编者:今年的INTERSPEECH于8月20日至24日在瑞典的斯德哥尔摩顺利召开,众多的高校研究机构和著名的公司纷纷在本次会议上介绍了各自最新的技术、系统和相关产品,而阿里巴巴集团作为钻石赞助商也派出了强大的阵容前往现场。

编者:今年的INTERSPEECH于8月20日至24日在瑞典的斯德哥尔摩顺利召开,众多的高校研究机构和著名的公司纷纷在本次会议上介绍了各自最新的技术、系统和相关产品,而阿里巴巴集团作为钻石赞助商也派出了强大的阵容前往现场。从10月25日开始,阿里iDST语音团队和云栖社区将共同打造一系列语音技术分享会,旨在为大家分享INTERSPEECH2017会议上语音技术各个方面的进展。本期分享的主题是远场语音识别技术,以下是本次分享的主要内容:

1. 语音识别之后处理技术简介

  语音识别(Automatic Speech Recognition,ASR)所要解决的问题是让计算机能够"听懂"人类的语音,将语音转化成文本。语音识别是实现智能的人机交互的前沿阵地,是完全机器翻译,自然语言理解等的前提条件。语音识别的研究起源于上世纪的50年代,此后经过无数学者坚持不懈的努力,从最初的基于孤立词的小词汇量语音识别系统到目前的基于大词汇量的连续语音识别识别系统,语音识别技术取得了显著的进展。特别是近年来随着大数据时代的到来,以及深度神经网络在语音识别中的应用,语音识别系统的性能获得了显著的提升。语音识别也逐步走向实用化和产品化,越来越多的语音识别智能软件和应用开始走入大家的日常生活,例如语音输入法,智能语音助手,车载语音交互系统等等。

  语音识别之后处理技术,主要是优化语音识别产品的用户体验,包括:口语顺滑(Disfluency Detection)、标点恢复(Punctuation Restoration)和逆文本标准化(Inverse Text Normalization)等。下图给出示例:

  口语顺滑(Disfluency Detection):红色框表示口语顺滑的效果。与书面语不同,口语含有不通顺的成分(disfluencies),包括填充停顿(filled pause)、重复(repitition)、修正(repair)、重新开始(restart)

  标点恢复(Punctuation Restoration):蓝色框表示标点恢复的效果。由于语音识别是做音频信息到字符序列的转换,非常需要标点断句方便用户的阅读,同时便于语音识别后续的应用,譬如机器翻译、机器阅读等。

  逆文本标准化(Inverse Text Normalization):橘黄色框表示逆文本标准化效果。可以将spoken form的一些实体,转换为书面语形式,譬如数字、日期、货币等,方面用户阅读。
1

2. 口语顺滑技术(Disfluency Detection)

2.1问题定义

  一个标准口语顺滑范式如下图表示,包括1)被修正部分reparandum 2)插入语interregum 3)修正结果repair
image

2.2口语顺滑示例

image

2.3问题建模

1 Sequence tagging:可定义为标准的序列标注问题,可参看的模型包括: CRFs、Semi-Markov CRFs、LSTM、BLSTM
一个标准的BLSTM模型如下图
image

2 Parsing-based models: 基于parsing的方法,其优点是可以结合NLP parser 一起来解决该问题,但是标注数据的规模可能有限。

3 Sequence to sequence models: 基于生成的方式,该研究领域最近非常热门。
image

2.4一些有代表性的特征

image

3. 标点恢复(Punctuation Restoration)

3.1主要方法

1 N-gram Language Models
2 Sequence tagging: better generalization、longer context
image
参考文献:LSTM for Punctuation Restoration in Speech Transcripts
image
参考文献:Bidirectional Recurrent Neural Network with Attention Mechanism for Punctuation Restoration
3 Sequence to sequence models
3.1 Compact Representation
image
3.2 Example
image
参考文献:NMT-based Segmentation and Punctuation Insertion for Real-time Spoken Language Translation

3.2主要特征

1 word、phrase、word embedding
2 word/phoneme duration、energy(Two stage model)

4. 逆文本标准化(Inverse Text Normalization)

4.1问题定义

  Convert spoken-form token sequence to written form

4.2典型的例子

image
参考文献:A Mostly Data-driven Approach to Inverse Text Normalization

4.3主要的四个过程

1 Label Assignment:
assign a label to each spoken-form input token. A label specifies edits to perform to the spoken-form token string in order to obtain its corresponding written-form segment.

一些label例子:
image

image

2 Label Assignment:
Generate finite-state-transducer(FST) for the Rewrite, Prepend, and Append fields from tables, with both input and output symbols

image

3 Post-processing
apply the appropriate post-processing grammar to any regions marked for post-processing.

image
4 Label Inference
Obtain label sequences from spoken form, written form pairs
image

相关实践学习
一键创建和部署高分电影推荐语音技能
本场景使用天猫精灵技能应用平台提供的技能模板,在2-5分钟内,创建一个好玩的高分电影推荐技能,使用模板后无须代码开发,系统自动配置意图、实体等,新手0基础也可体验创建技能的乐趣。
达摩院智能语音交互 - 声纹识别技术
声纹识别是基于每个发音人的发音器官构造不同,识别当前发音人的身份。按照任务具体分为两种: 声纹辨认:从说话人集合中判别出测试语音所属的说话人,为多选一的问题 声纹确认:判断测试语音是否由目标说话人所说,是二选一的问题(是或者不是) 按照应用具体分为两种: 文本相关:要求使用者重复指定的话语,通常包含与训练信息相同的文本(精度较高,适合当前应用模式) 文本无关:对使用者发音内容和语言没有要求,受信道环境影响比较大,精度不高 本课程主要介绍声纹识别的原型技术、系统架构及应用案例等。 讲师介绍: 郑斯奇,达摩院算法专家,毕业于美国哈佛大学,研究方向包括声纹识别、性别、年龄、语种识别等。致力于推动端侧声纹与个性化技术的研究和大规模应用。
相关文章
|
2月前
|
机器学习/深度学习 自然语言处理 语音技术
语音识别技术的原理与应用
语音识别技术的原理与应用
|
5月前
|
机器学习/深度学习 自然语言处理 人机交互
语音识别技术的发展与未来趋势:深度学习、端到端建模与多模态融合
语音识别技术的发展与未来趋势:深度学习、端到端建模与多模态融合
186 0
语音识别技术的发展与未来趋势:深度学习、端到端建模与多模态融合
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
听懂未来:AI语音识别技术的进步与实战
听懂未来:AI语音识别技术的进步与实战
203 0
|
10月前
|
人工智能 编解码 API
C# 10分钟完成百度语音技术(语音识别与合成)——入门篇
C# 10分钟完成百度语音技术(语音识别与合成)——入门篇
|
11月前
|
语音技术 信息无障碍
直播源码搭建平台技术知识:实时语音识别字幕呈现功能
回到我们的直播源码平台开发上来,对于直播源码平台来说实时语音识别字幕呈现功能也是重要的功能之一,好了,正式进入我们今天的主题内容:直播源码搭建平台技术知识:实时语音识别字幕呈现功能!
直播源码搭建平台技术知识:实时语音识别字幕呈现功能
|
12月前
|
机器学习/深度学习 达摩院 前端开发
INTERSPEECH 2022论文解读|针对多方会议场景下说话人相关语音识别的对比研究
INTERSPEECH是由国际语音通讯协会 (International Speech Communication Association, ISCA) 创办的语音信号处理领域顶级旗舰国际会议。历届INTERSPEECH会议都备受全球各地语音语言领域人士的广泛关注。 ‍本文主要对比研究三种SA-ASR的方法,通过对说话人日志、语音分离和语音识别模块的耦合,在M2MeT竞赛上发布的真实会议场景语料库AliMeeting上进行了相关实验,有效地降低了说话人相关字错误率(SD-CER)。论文已被INTERSPEECH 2022接收。
354 0
|
12月前
|
机器学习/深度学习 自然语言处理 大数据
INTERSPEECH 2022论文解读|Paraformer: 高识别率、高计算效率的单轮非自回归端到端语音识别模型
INTERSPEECH 是由国际语音通讯协会(International Speech Communication Association, ISCA)创办的语音信号处理领域顶级旗舰国际会议。历届 INTERSPEECH 会议都备受全球各地语音语言领域人士的广泛关注。 本文介绍一种具有高识别率与计算效率的单轮非自回归模型 Paraformer。该论文已被 INTERSPEECH 2022 接收。
677 0
INTERSPEECH 2022论文解读|Paraformer: 高识别率、高计算效率的单轮非自回归端到端语音识别模型
|
12月前
|
机器学习/深度学习 达摩院 算法
Contextual Transformer端到端语音识别文本定制技术,可显著提升热词召回及整体识别率
Contextual Transformer端到端语音识别文本定制技术,可显著提升热词召回及整体识别率
238 0
|
机器人 语音技术 开发工具
智能电话机器人,使用Microsoft语音识别技术(Speech sdk)
智能电话机器人,使用Microsoft语音识别技术(Speech sdk)
171 0
智能电话机器人,使用Microsoft语音识别技术(Speech sdk)
|
机器学习/深度学习 自然语言处理 搜索推荐
阿里云智能语音交互产品测评:基于语音识别、语音合成、自然语言理解等技术
智能语音交互基于语音识别、语音合成、自然语言理解等技术,实现“能听、会说、懂你”式的智能人机交互体验,适用于智能客服、质检、会议纪要、实时字幕等多个企业应用场景。 目前已上线实时语音识别、一句话识别、录音文件识别、语音合成等多款产品,您可以在控制台页面进行试用,也可以通过API调用相关能力。
43761 4
阿里云智能语音交互产品测评:基于语音识别、语音合成、自然语言理解等技术