使用PP-TTS实现语音合成

Posted 何小有

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用PP-TTS实现语音合成相关的知识,希望对你有一定的参考价值。

调用 PP-TTS 需要安装的依赖文件 requirements.txt 如下(下面的版本号只是写这篇文章时的版本号,不是最新的版本号):

paddlepaddle==2.4.2
paddlespeech==1.0.1
paddleaudio==1.0.1

在执行 TTS 任务过程中,会将使用到的 声学模型声码器模型 下载到本地的 C:\\Users\\XXX\\.paddlespeech\\models 目录下。

执行 TTS 任务

可以通过代码或命令的方式,快速调用推理模型完成 TTS 任务并输出音频。

代码调用

from paddlespeech.cli.tts import TTSExecutor

tts_executor = TTSExecutor()

wav_file = tts_executor(
    text='湖北十堰竹山县的桃花摇曳多姿,和蓝天白云一起,构成一幅美丽春景。',
    output='output.wav',  # 输出音频的路径
    am='fastspeech2_csmsc',  # TTS任务的声学模型
    voc='hifigan_csmsc',  # TTS任务的声码器
    lang='zh',  # TTS任务的语言
    spk_id=174,  # 说话人ID
)

命令调用

paddlespeech tts --input "湖北十堰竹山县的桃花摇曳多姿,和蓝天白云一起,构成一幅美丽春景。" --output output.wav --am fastspeech2_csmsc --voc hifigan_csmsc --lang zh --spk_id 174

可能遇到的异常

问题1

在 Windows 下可能会遇到下面的编码异常:

UnicodeDecodeError: 'gbk' codec can't decode byte 0x8c in position 2088: illegal multibyte sequence

解决方式是修改源代码文件:

  • venv\\Lib\\site-packages\\paddlespeech\\t2s\\frontend\\zh_frontend.py 搜索到下面代码
    • with open(phone_vocab_path, 'rt'
    • with open(tone_vocab_path, 'rt'
  • venv\\Lib\\site-packages\\paddlespeech\\cli\\tts\\infer.py 搜索到下面代码
    • with open(self.phones_dict, "r"
    • with open(self.tones_dict, "r"
    • with open(self.speaker_dict, 'rt'

在搜索到的代码处,全部补充加上 , encoding='UTF-8' 以修复编码异常。

问题2

在安装 future 库下可能会遇到下面的 No module named 'src' 异常:

          import src.future
      ModuleNotFoundError: No module named 'src'
      [end of output]

解决方式是从 future · PyPI 下载 future-x.xx.x.tar.gz 源码压缩包文件,然后解压后在 setup.py 文件开头(只要在问题代码行之前就可以)添加一行 sys.path.append('') 解决路径问题:

sys.path.append('')
import src.future

然后再执行 python setup.py install 命令完成安装。

问题3

在安装 webrtcvad 库可能会遇到下面的 Microsoft Visual Studio 14.0\\\\VC\\\\BIN\\\\x86_amd64\\\\cl.exe' failed with exit code 2 异常:

      pywebrtcvad.c
      cbits\\pywebrtcvad.c(1): fatal error C1083: Cannot open include file: 'Python.h': No such file or directory
      error: command 'C:\\\\Program Files (x86)\\\\Microsoft Visual Studio 14.0\\\\VC\\\\BIN\\\\x86_amd64\\\\cl.exe' failed with exit code 2
      [end of output]

解决方式是从 Releases · PaddlePaddle/PaddleSpeech (github.com) 下载对应版本的源代码,然后解压压缩包,把 setup.py 文件里面依赖项列表中的 webrtcvad 替换成 webrtcvad-wheels

base = [
    ....
    "webrtcvad-wheels",
    ....
]

然后在源代码目录下执行下面两个命令完成安装:

pip install pytest-runner
pip install .

模型选择

声学模型声码器模型语言数据集说话人ID调用参数
FastSpeech2HiFiGAN中文CSMSC174am='fastspeech2_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174,
FastSpeech2HiFiGAN英文LJSpeech175am='fastspeech2_ljspeech',voc='hifigan_ljspeech',lang='en',spk_id=175,
FastSpeech2WaveNet中文CSMSC174am='fastspeech2_csmsc',voc='wavernn_csmsc',lang='zh',spk_id=174,
SpeedySpeechHiFiGAN中文CSMSC174am='speedyspeech_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174,
Tacotron2HiFiGAN中文CSMSC174am='tacotron2_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174,
Tacotron2HiFiGAN英文LJSpeech175am='tacotron2_ljspeech',voc='hifigan_ljspeech',lang='en',spk_id=175,

声学模型

参数 am = acoustic model = 声学模型,是把语言特征转成音频的声学特征。

  • FastSpeech2: 非自回归模型,简化 Tacotron2 模型的预训练工作,改用 MFA 指导 duration 预测,引入了 pitch、energy 预测辅助声学建模
  • SpeedySpeech: 另一个主流的声学模型,非自回归模型
  • Tacotron2: 使用了RNN结构,自回归模型,合成速度较慢

声码器

参数 voc = vocoder = 声码器,源自人声编码器的缩写,又称语音信号分析合成系统,对声音进行分析与合成的系统,主要应用于合成人类语音。声码器的主要功能是把声学特征转成可播放的语音波形。声码器的好坏直接决定了音频的音质高低。

  • HiFiGAN: 提出了一种残差结构,交替使用带洞卷积和普通卷积增大感受野,保证合成音质的同时,提高推理速度
  • WaveNet: 为了增大感受野,叠加带洞卷积,逐样本点生成,音质确实很好,但是也使得模型较大,推理速度较慢

数据集

  • CSMSC: 中文,单说话人,女声,约12小时,具有高音频质量
  • LJSpeech: 英文,单说话人,女声,约24小时,具有高音频质量

因为 PP-TTS 默认提供的是基于 FastSpeech2 声学模型和 HiFiGAN 声码器的流式语音合成系统,所以在无法理解相关理论时,直接选择前两个 FastSpeech2 + HiFiGAN 的调用参数就可以了。

以上是关于使用PP-TTS实现语音合成的主要内容,如果未能解决你的问题,请参考以下文章

python腾讯语音合成

基于51单片机+LD3320语音模块+SYN6288语音合成——语音识别智能分类垃圾桶

人工智能交互集成在线语音合成能力的Tips

人工智能交互集成在线语音合成能力的Tips

Android集成科大讯飞SDK语音听写及语音合成功能实现

人工智能 1. 语音合成,语音识别,相似度,图灵机器人,智能对话