使用PP-TTS实现语音合成

调用 PP-TTS 需要安装的依赖文件 requirements.txt 如下(下面的版本号只是写这篇文章时的版本号,不是最新的版本号):

paddlepaddle==2.4.2
paddlespeech==1.0.1
paddleaudio==1.0.1

在执行 TTS 任务过程中,会将使用到的 声学模型声码器模型 下载到本地的 C:\Users\XXX\.paddlespeech\models 目录下。

执行 TTS 任务

可以通过代码或命令的方式,快速调用推理模型完成 TTS 任务并输出音频。

代码调用

from paddlespeech.cli.tts import TTSExecutortts_executor = TTSExecutor()wav_file = tts_executor(text='湖北十堰竹山县的桃花摇曳多姿,和蓝天白云一起,构成一幅美丽春景。',output='output.wav',  # 输出音频的路径am='fastspeech2_csmsc',  # TTS任务的声学模型voc='hifigan_csmsc',  # TTS任务的声码器lang='zh',  # TTS任务的语言spk_id=174,  # 说话人ID
)

命令调用

paddlespeech tts --input "湖北十堰竹山县的桃花摇曳多姿,和蓝天白云一起,构成一幅美丽春景。" --output output.wav --am fastspeech2_csmsc --voc hifigan_csmsc --lang zh --spk_id 174

可能遇到的异常

问题1

在 Windows 下可能会遇到下面的编码异常:

UnicodeDecodeError: 'gbk' codec can't decode byte 0x8c in position 2088: illegal multibyte sequence

解决方式是修改源代码文件:

  • venv\Lib\site-packages\paddlespeech\t2s\frontend\zh_frontend.py 搜索到下面代码
    • with open(phone_vocab_path, 'rt'
    • with open(tone_vocab_path, 'rt'
  • venv\Lib\site-packages\paddlespeech\cli\tts\infer.py 搜索到下面代码
    • with open(self.phones_dict, "r"
    • with open(self.tones_dict, "r"
    • with open(self.speaker_dict, 'rt'

在搜索到的代码处,全部补充加上 , encoding='UTF-8' 以修复编码异常。

问题2

在安装 future 库下可能会遇到下面的 No module named 'src' 异常:

          import src.futureModuleNotFoundError: No module named 'src'[end of output]

解决方式是从 future · PyPI 下载 future-x.xx.x.tar.gz 源码压缩包文件,然后解压后在 setup.py 文件开头(只要在问题代码行之前就可以)添加一行 sys.path.append('') 解决路径问题:

sys.path.append('')
import src.future

然后再执行 python setup.py install 命令完成安装。

问题3

在安装 webrtcvad 库可能会遇到下面的 Microsoft Visual Studio 14.0\\VC\\BIN\\x86_amd64\\cl.exe' failed with exit code 2 异常:

      pywebrtcvad.ccbits\pywebrtcvad.c(1): fatal error C1083: Cannot open include file: 'Python.h': No such file or directoryerror: command 'C:\\Program Files (x86)\\Microsoft Visual Studio 14.0\\VC\\BIN\\x86_amd64\\cl.exe' failed with exit code 2[end of output]

解决方式是从 Releases · PaddlePaddle/PaddleSpeech (github.com) 下载对应版本的源代码,然后解压压缩包,把 setup.py 文件里面依赖项列表中的 webrtcvad 替换成 webrtcvad-wheels

base = [...."webrtcvad-wheels",....
]

然后在源代码目录下执行下面两个命令完成安装:

pip install pytest-runner
pip install .

模型选择

声学模型 声码器模型 语言 数据集 说话人ID 调用参数
FastSpeech2 HiFiGAN 中文 CSMSC 174 am='fastspeech2_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174,
FastSpeech2 HiFiGAN 英文 LJSpeech 175 am='fastspeech2_ljspeech',voc='hifigan_ljspeech',lang='en',spk_id=175,
FastSpeech2 WaveNet 中文 CSMSC 174 am='fastspeech2_csmsc',voc='wavernn_csmsc',lang='zh',spk_id=174,
SpeedySpeech HiFiGAN 中文 CSMSC 174 am='speedyspeech_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174,
Tacotron2 HiFiGAN 中文 CSMSC 174 am='tacotron2_csmsc',voc='hifigan_csmsc',lang='zh',spk_id=174,
Tacotron2 HiFiGAN 英文 LJSpeech 175 am='tacotron2_ljspeech',voc='hifigan_ljspeech',lang='en',spk_id=175,

声学模型

参数 am = acoustic model = 声学模型,是把语言特征转成音频的声学特征。

  • FastSpeech2: 非自回归模型,简化 Tacotron2 模型的预训练工作,改用 MFA 指导 duration 预测,引入了 pitch、energy 预测辅助声学建模
  • SpeedySpeech: 另一个主流的声学模型,非自回归模型
  • Tacotron2: 使用了RNN结构,自回归模型,合成速度较慢

声码器

参数 voc = vocoder = 声码器,源自人声编码器的缩写,又称语音信号分析合成系统,对声音进行分析与合成的系统,主要应用于合成人类语音。声码器的主要功能是把声学特征转成可播放的语音波形。声码器的好坏直接决定了音频的音质高低。

  • HiFiGAN: 提出了一种残差结构,交替使用带洞卷积和普通卷积增大感受野,保证合成音质的同时,提高推理速度
  • WaveNet: 为了增大感受野,叠加带洞卷积,逐样本点生成,音质确实很好,但是也使得模型较大,推理速度较慢

数据集

  • CSMSC: 中文,单说话人,女声,约12小时,具有高音频质量
  • LJSpeech: 英文,单说话人,女声,约24小时,具有高音频质量

因为 PP-TTS 默认提供的是基于 FastSpeech2 声学模型和 HiFiGAN 声码器的流式语音合成系统,所以在无法理解相关理论时,直接选择前两个 FastSpeech2 + HiFiGAN 的调用参数就可以了。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注