如何使用ModelScope魔搭开源代码训练一款语音合成模型

本文涉及的产品
模型训练 PAI-DLC,5000CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 如何使用ModelScope魔搭开源代码训练一款语音合成模型

从模型体验到开发训练,本文将演示如何通过modelscope魔搭体验达摩院预训练模型,并手把手演示定制一款语音合成模型的训练过程。

目前达摩院语音实验室在ModelScope魔搭社区已经上线了13个语音合成模型,其中男女声发音人模型各4个,多发音人模型5个,整体MOS评分在4.5分左右,达到了接近真实录音的水平,模型支持中文、英式英文、美式英文、中英混这几类语言,适用于朗读、视频配音等多种场景。

▏如何体验语音合成模型效果

1. 在线体验

ModelScope上线的语音合成模型均提供了在线体验功能,点击进入模型主页,在页面右侧可以输入想要合成的文本,点击“执行测试”,模型会加载并进行推理,推理完成后,下方的“测试结果”会出现合成的音频,点击它就可以播放音频啦。

image.png

2. Notebook开发体验

对于有一定经验的开发者,还可以通过在线Notebook体验模型效果,点击模型主页右上角的“在Notebook中打开”,

image.png

请注意以上操作需要的前提条件:

①注册一个阿里云账号

②注册一个ModelScope网站账号

先登录ModelScope账号,点击模型页面右上角的“在Notebook中打开”按钮出现对话框。首次使用会提示您关联阿里云账号,按提示操作即可。

待进入Notebook开发环境后我们选择新建Notebook脚本

image.png

将模型主页的示例代码粘贴到Notebook代码块中,并将text替换成想要合成的文本,运行代码块,随后即可在左侧文件栏中获得合成的语音文件,可下载到本地进行试听。

image.png

▏如何训练一个定制语音合成模型

达摩院语音实验室已经将ModelScope上语音合成模型使用的训练框架KAN-TTS开源到了Github代码托管平台,并提供了中文多人预训练模型,开发者基于此语音合成训练框架及预训练模型,即可在小规模数据集上定制自己的语音合成模型,这里我们将使用AISHELL-3开源语音合成数据集(特别鸣谢希尔贝壳提供该数据集),演示如何生产一个定制化语音合成模型。

首先在开始训练前,我们需要完成环境搭建和数据准备两个操作。

环境搭建

获取KAN-TTS源码, 后续操作默认在代码库根目录下执行

git clone https://github.com/AlibabaResearch/KAN-TTS.gitcd KAN-TTS

我们推荐使用Anaconda来搭建Python虚拟环境,使用以下命令创建(目前只兼容Linux x86系统):


# 防止使用pip安装时出现网络问题,建议切换国内pip源pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
# 创建虚拟环境conda env create -f environment.yaml
# 激活虚拟环境conda activate maas

数据准备

目前KAN-TTS支持两种类型的数据格式:阿里标准格式通用格式

其中阿里标准格式数据如下:

.├── interval│   ├── 500001.interval│   ├── 500002.interval│   ├── 500003.interval│   ├── ...│   └── 600010.interval├── prosody│   └── prosody.txt└── wav    ├── 500001.wav    ├── 500002.wav    ├── ...    └── 600010.wav

通用格式数据如下:

.├── prosody│   └── prosody.txt└── wav    ├── 1.wav    ├── 2.wav    ├── ...    └── 9000.wav

wav文件夹下存放了音频文件,prosody文件夹下的.txt文件对应的是音频文件的文本标注,interval文件夹下存放的是音素级别的时间戳标注,通常情况下通用格式数据不会携带时间戳标注,这是两种格式的区别。

快速开始:你可以从ModelScope下载经过阿里标准格式处理的AISHELL-3开源语音合成数据集,用来进行后续操作。

在ModelScope页面下载数据文件,

解压数据文件并得到文件夹

unzip aishell3.zip

AISHELL-3包含两百多个发音人录音,每个发音人数据量在20~30分钟不等,这里我们选择其中的一个发音人进行数据处理,以SSB0009为例(开发者也可自行选择其他发音人),训练一个16k采样率的语音合成模型。

由于原始音频采样率为44k,我们先对音频做重采样,这里需要用到该数据集的元数据仓库脚本


# 拉取元数据仓库,并做重采样处理git clone https://www.modelscope.cn/datasets/speech_tts/AISHELL-3.git./AISHELL-3/aishell_resample.sh aishell3 aishell3_16k 16000

下面我们选择适合数据采样率的配置文件进行特征提取操作,这里我们以16k采样率为例kantts/configs/audio_config_16k.yaml

运行以下命令来进行特征提取,其中--speaker代表该数据集对应发音人的名称,用户可以随意命名。


python kantts/preprocess/data_process.py --voice_input_dir aishell3_16k/SSB0009 --voice_output_dir training_stage/SSB0009_feats --audio_config kantts/configs/audio_config_16k.yaml --speaker SSB0009

根据数据集规模,特征提取需要运行一段时间,提取完毕后你会在training_stage/SSB0009_feats目录下得到如下结构的文件:


# 基于阿里标准格式数据所提取出的特征目录├── am_train.lst├── am_valid.lst├── audio_config.yaml├── badlist.txt├── data_process_stdout.log├── duration├── energy├── f0├── frame_energy├── frame_f0├── frame_uv├── mel├── raw_duration├── raw_metafile.txt├── Script.xml├── train.lst├── valid.lst└── wav

至此数据准备工作就算完成了。

获取预训练模型

ModelScope中文多人语音合成模型是达摩院语音实验室在100小时精标多人数据集上训练产出的预训练模型,我们以此为basemodel做后续微调。使用git命令拉取模型,在拉取前,首先你需要安装git-lfs, 具体的安装教程见Git Large File Storage,安装完成后执行以下命令

# 克隆预训练模型git clone -b pretrain http://www.modelscope.cn/speech_tts/speech_sambert-hifigan_tts_zh-cn_multisp_pretrain_16k.git

微调声学模型

KAN-TTS的训练脚本是配置驱动的,我们使用预训练模型的sambert/config.yaml作为训练配置文件。

此外根据在数据准备阶段对数据集做的命名,我们还需要修改配置文件中的speaker_list配置项:

# 将speaker_list其中一个发音人替换为aishell3发音人linguistic_unit:   cleaners: english_cleaners  lfeat_type_list: sy,tone,syllable_flag,word_segment,emo_category,speaker_category  speaker_list: SSB0009,F74,FBYN,FRXL,M7,xiaoyu

以及train_max_steps配置项,我们希望在basemodel 980k的基础上,继续微调120k

# 将train_max_steps改为1100100...train_max_steps: 1100100...

完成上述必要的配置项修改后,我们就可以使用以下命令训练声学模型了:


CUDA_VISIBLE_DEVICES=0 python kantts/bin/train_sambert.py --model_config speech_sambert-hifigan_tts_zh-cn_multisp_pretrain_16k/basemodel_16k/sambert/config.yaml  --root_dir training_stage/SSB0009_feats --stage_dir training_stage/SSB0009_sambert_ckpt

根据你的显卡数量和性能不同,此处sambert训练会需要5~10个小时,训练完成后模型输出目录如下:

./SSB0009_sambert_ckpt├── ckpt/├── checkpoint_1100000.pth   <----- this is the latest checkpoint├── checkpoint_1020000.pth├── checkpoint_1040000.pth|....├── config.yaml├── log/└── stdout.log

微调声码器

与声学模型类似,声码器的训练脚本也是配置驱动的,你可以使用预训练模型目录下的hifigan/config.yaml作为训练配置文件,另外声学模型和声码器的微调并没有依赖关系,两者可以同时进行。我们希望在basemodel 2000k steps的基础上再微调100k steps, 但不保留state,修改hifigan/config.yaml配置项train_max_steps

# 将train_max_steps改为100100...train_max_steps: 100100...

运行以下命令进行训练:

CUDA_VISIBLE_DEVICES=0 python kantts/bin/train_hifigan.py --model_config speech_sambert-hifigan_tts_zh-cn_multisp_pretrain_16k/basemodel_16k/hifigan/config.yaml --root_dir training_stage/SSB0009_feats --stage_dir training_stage/SSB0009_hifigan_ckpt

声码器需要的微调时间较长,根据GPU型号不同在12~20小时不等。

训练完成后,声码器模型输出目录如下:


.├── ckpt/│   ├── checkpoint_2020000.pth│   ├── checkpoint_2040000.pth│   ├── ...│   └── checkpoint_2100000.pth      <---- this is the latest checkpoint├── config.yaml├── log/└── stdout.log

体验模型效果

在声学模型和声码器微调完毕后,我们就可以使用产出的模型文件来合成语音了,在此之前需要做一些准备工作。

将我们想要合成的文本写入一个文件test.txt,每句话按行分隔,如下所示:

徐玠诡谲多智,善揣摩,知道徐知询不可辅佐,掌握着他的短处以归附徐知诰。许乐夫生于山东省临朐县杨善镇大辛庄,毕业于抗大一分校。宣统元年(1909年),顺德绅士冯国材在香山大黄圃成立安洲农务分会,管辖东海十六沙,冯国材任总理。学生们大多住在校区宿舍,通过参加不同的体育文化俱乐部及社交活动,形成一个友谊长存的社会圈。学校的“三节一会”(艺术节、社团节、科技节、运动会)是显示青春才华的盛大活动。雪是先天自闭症患者,不懂与人沟通,却拥有灵敏听觉,而且对复杂动作过目不忘。勋章通过一柱状螺孔和螺钉附着在衣物上。

运行以下命令进行合成:

CUDA_VISIBLE_DEVICES=0 python kantts/bin/text_to_wav.py --txt test.txt --output_dir res/SSB0009_syn --res_zip speech_sambert-hifigan_tts_zh-cn_multisp_pretrain_16k/resource.zip --am_ckpt training_stage/SSB0009_sambert_ckpt/ckpt/checkpoint_1100000.pth --voc_ckpt training_stage/SSB0009_hifigan_ckpt/ckpt/checkpoint_2100000.pth --speaker SSB0009

完成后在res/SSB0009_syn/res_wavs文件夹下就可以获得合成结果


│   ├── 8_0_dur.txt│   ├── 8_0_energy.txt│   ├── 8_0_f0.txt│   ├── 8_0_mel.npy│   ├── 8_1_dur.txt│   ├── 8_1_energy.txt│   ├── 8_1_f0.txt│   └── 8_1_mel.npy├── res_wavs│   ├── 0.wav│   ├── 1.wav│   ├── 2.wav│   ├── 3.wav│   ├── 4.wav│   ├── 5.wav│   ├── 6.wav├── stdout.log└── symbols.lst

以下分别为原始录音及合成样音

ModelScope语音合成模型原理

在ModelScope魔搭社区上大家体验到的语音合成技术是达摩院语音实验室显式韵律声学模型SAMBERT以及HiFi-GAN声码器的结合。

在语音合成领域,类似FastSpeech2的Parallel模型是目前的主流,它针对基频(pitch)、能量(energy)和时长(duration)三种韵律表征分别建模。但是,该类模型普遍存在一些效果和性能上的问题,例如,独立建模时长、基频、能量,忽视了其内在联系;完全非自回归的网络结构,无法满足工业级实时合成需求;帧级别基频和能量预测不稳定。

因此达摩院语音实验室设计了SAMBERT,一种基于Parallel结构的改良版TTS模型,它具有以下优点:

  1. 建立时长与基频、能量的依赖关系,并使用自回归结构的时长预测模块,提升预测韵律的自然度和多样性;
  2. Decoder使用PNCA自回归结构,降低带宽要求,支持CPU实时合成;
  3. 音素级别建模基频、能量,提高容错率;
  4. 以预训练BERT语言模型为编码器,在小规模数据上效果更好。

image.png

相关文章
|
6月前
|
自然语言处理 数据可视化 物联网
Qwen1.5-MoE开源,魔搭社区推理训练最佳实践教程来啦
通义千问团队推出Qwen系列的首个MoE模型,Qwen1.5-MoE-A2.7B。
|
5天前
|
机器学习/深度学习 人工智能 PyTorch
使用Pytorch构建视觉语言模型(VLM)
视觉语言模型(Vision Language Model,VLM)正在改变计算机对视觉和文本信息的理解与交互方式。本文将介绍 VLM 的核心组件和实现细节,可以让你全面掌握这项前沿技术。我们的目标是理解并实现能够通过指令微调来执行有用任务的视觉语言模型。
19 2
|
4月前
|
人工智能 JSON 自然语言处理
国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]
【7月更文挑战第7天】国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]
226 10
国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]
|
3月前
|
人工智能 自然语言处理 前端开发
AIGC:聊聊如何用openai帮我们进行情感分析(Huggingface——transformer)
AIGC:聊聊如何用openai帮我们进行情感分析(Huggingface——transformer)
|
5月前
|
人工智能 安全 API
用通义Qwen大模型和Streamlit构建 ChatPDF 应用(附代码)
本文介绍了如何利用通义千问Qwen大模型构建一个本地ChatPDF AI助手,该助手允许用户上传PDF并与之对话,确保文档隐私安全。项目通过阿里云百炼平台获取Qwen-Long模型,支持多种文档格式。现实现步骤包括导入库、加载环境变量、初始化客户端、编码器、页面与对话管理、文件上传、选择模型、获取AI回答及计算费用,主函数整合这些功能,提供交互体验。
715 0
用通义Qwen大模型和Streamlit构建 ChatPDF 应用(附代码)
|
自然语言处理 小程序
ModelScope体验:自然语言推理模型应用
自然语言推理,即输入形如(前提句,假设句)的句子对数据,模型会给出该句子对应的自然语言推理标签(contradiction、entailment、neutral)以及相应的概率,从而反映出句子对之间的关系。本文以“达摩自然语言推理”模型为例,展示了如果调用ModelScope工具,并通过gradio将该功能部署为小程序的过程。
|
6月前
|
PyTorch 测试技术 TensorFlow
Modelscope-FunASR是一个开源的语音识别框架
【2月更文挑战第9天】Modelscope-FunASR是一个开源的语音识别框架
719 2
|
6月前
|
自然语言处理 搜索推荐 PyTorch
ModelScope问题之NoteBook训练个性化语音合成模型报错如何解决
ModelScope训练是指在ModelScope平台上对机器学习模型进行训练的活动;本合集将介绍ModelScope训练流程、模型优化技巧和训练过程中的常见问题解决方法。
103 0
|
JSON 自然语言处理 安全
ChatGLM2-6B和ChatGLM-6B:开源双语对话模型,探索无限对话可能!
ChatGLM2-6B和ChatGLM-6B:开源双语对话模型,探索无限对话可能!
267 0
|
自然语言处理 大数据 Python
关于阿里ModelScope模型
通过查看模型回答对阿里ModelScope模型进行评测分析
428 0

热门文章

最新文章