使用PP-TTS实现语音合成
Posted 何小有
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用PP-TTS实现语音合成相关的知识,希望对你有一定的参考价值。
调用 PP-TTS 需要安装的依赖文件 requirements.txt
如下(下面的版本号只是写这篇文章时的版本号,不是最新的版本号):
paddlepaddle==2.4.2
paddlespeech==1.0.1
paddleaudio==1.0.1
在执行 TTS 任务过程中,会将使用到的 声学模型 和 声码器模型 下载到本地的 C:\\Users\\XXX\\.paddlespeech\\models
目录下。
执行 TTS 任务
可以通过代码或命令的方式,快速调用推理模型完成 TTS 任务并输出音频。
代码调用
from paddlespeech.cli.tts import TTSExecutor
tts_executor = TTSExecutor()
wav_file = tts_executor(
text='湖北十堰竹山县的桃花摇曳多姿,和蓝天白云一起,构成一幅美丽春景。',
output='output.wav', # 输出音频的路径
am='fastspeech2_csmsc', # TTS任务的声学模型
voc='hifigan_csmsc', # TTS任务的声码器
lang='zh', # TTS任务的语言
spk_id=174, # 说话人ID
)
命令调用
paddlespeech tts --input "湖北十堰竹山县的桃花摇曳多姿,和蓝天白云一起,构成一幅美丽春景。" --output output.wav --am fastspeech2_csmsc --voc hifigan_csmsc --lang zh --spk_id 174
可能遇到的异常
问题1
在 Windows 下可能会遇到下面的编码异常:
UnicodeDecodeError: 'gbk' codec can't decode byte 0x8c in position 2088: illegal multibyte sequence
解决方式是修改源代码文件:
- 在
venv\\Lib\\site-packages\\paddlespeech\\t2s\\frontend\\zh_frontend.py
搜索到下面代码with open(phone_vocab_path, 'rt'
with open(tone_vocab_path, 'rt'
- 在
venv\\Lib\\site-packages\\paddlespeech\\cli\\tts\\infer.py
搜索到下面代码with open(self.phones_dict, "r"
with open(self.tones_dict, "r"
with open(self.speaker_dict, 'rt'
在搜索到的代码处,全部补充加上 , encoding='UTF-8'
以修复编码异常。
问题2
在安装 future
库下可能会遇到下面的 No module named 'src'
异常:
import src.future
ModuleNotFoundError: No module named 'src'
[end of output]
解决方式是从 future · PyPI 下载 future-x.xx.x.tar.gz
源码压缩包文件,然后解压后在 setup.py
文件开头(只要在问题代码行之前就可以)添加一行 sys.path.append('')
解决路径问题:
sys.path.append('')
import src.future
然后再执行 python setup.py install
命令完成安装。
问题3
在安装 webrtcvad
库可能会遇到下面的 Microsoft Visual Studio 14.0\\\\VC\\\\BIN\\\\x86_amd64\\\\cl.exe' failed with exit code 2
异常:
pywebrtcvad.c
cbits\\pywebrtcvad.c(1): fatal error C1083: Cannot open include file: 'Python.h': No such file or directory
error: command 'C:\\\\Program Files (x86)\\\\Microsoft Visual Studio 14.0\\\\VC\\\\BIN\\\\x86_amd64\\\\cl.exe' failed with exit code 2
[end of output]
解决方式是从 Releases · PaddlePaddle/PaddleSpeech (github.com) 下载对应版本的源代码,然后解压压缩包,把 setup.py
文件里面依赖项列表中的 webrtcvad
替换成 webrtcvad-wheels
:
base = [
....
"webrtcvad-wheels",
....
]
然后在源代码目录下执行下面两个命令完成安装:
pip install pytest-runner
pip install .
模型选择
声学模型 | 声码器模型 | 语言 | 数据集 | 说话人ID | 调用参数 |
---|---|---|---|---|---|
FastSpeech2 | HiFiGAN | 中文 | CSMSC | 174 | am='fastspeech2_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174, |
FastSpeech2 | HiFiGAN | 英文 | LJSpeech | 175 | am='fastspeech2_ljspeech',voc='hifigan_ljspeech',lang='en',spk_id=175, |
FastSpeech2 | WaveNet | 中文 | CSMSC | 174 | am='fastspeech2_csmsc',voc='wavernn_csmsc',lang='zh',spk_id=174, |
SpeedySpeech | HiFiGAN | 中文 | CSMSC | 174 | am='speedyspeech_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174, |
Tacotron2 | HiFiGAN | 中文 | CSMSC | 174 | am='tacotron2_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174, |
Tacotron2 | HiFiGAN | 英文 | LJSpeech | 175 | am='tacotron2_ljspeech',voc='hifigan_ljspeech',lang='en',spk_id=175, |
声学模型
参数 am
= acoustic model = 声学模型,是把语言特征转成音频的声学特征。
- FastSpeech2: 非自回归模型,简化 Tacotron2 模型的预训练工作,改用 MFA 指导 duration 预测,引入了 pitch、energy 预测辅助声学建模
- SpeedySpeech: 另一个主流的声学模型,非自回归模型
- Tacotron2: 使用了RNN结构,自回归模型,合成速度较慢
声码器
参数 voc
= vocoder = 声码器,源自人声编码器的缩写,又称语音信号分析合成系统,对声音进行分析与合成的系统,主要应用于合成人类语音。声码器的主要功能是把声学特征转成可播放的语音波形。声码器的好坏直接决定了音频的音质高低。
- HiFiGAN: 提出了一种残差结构,交替使用带洞卷积和普通卷积增大感受野,保证合成音质的同时,提高推理速度
- WaveNet: 为了增大感受野,叠加带洞卷积,逐样本点生成,音质确实很好,但是也使得模型较大,推理速度较慢
数据集
- CSMSC: 中文,单说话人,女声,约12小时,具有高音频质量
- LJSpeech: 英文,单说话人,女声,约24小时,具有高音频质量
因为 PP-TTS 默认提供的是基于 FastSpeech2 声学模型和 HiFiGAN 声码器的流式语音合成系统,所以在无法理解相关理论时,直接选择前两个 FastSpeech2 + HiFiGAN 的调用参数就可以了。
以上是关于使用PP-TTS实现语音合成的主要内容,如果未能解决你的问题,请参考以下文章