TTS | emotional-vits情绪语音合成的实现

本文主要介绍了情绪语音合成项目训练自己的数据集的实现过程~

innnky/emotional-vits: 无需情感标注的情感可控语音合成模型,基于VITS (github.com)

目录

0.环境设置

 1.数据预处理

2..提取情绪

3.训练

4.推理

过程中遇到的问题与解决【PS】


0.环境设置

因为我用的是之前设置vits的虚拟环境,这里可能也有写不全的的地方~

git clone https://github.com/innnky/emotional-vits
cd emotional-vits
pip install -r requirements.txt

# MAS 对印发音和文本:Cython-version Monotonoic Alignment Search
cd monotonic_align
python setup.py build_ext --inplace


 1.数据预处理

# 处理数据集
python preprocess.py --text_index 2 --filelists /jf-training-home/src/emotional-vits/filelists/bea_train.txt /jf-training-home/src/emotional-vits/filelists/val.txt --text_cleaners korean_cleaners

生成文本处理文件

对数据进行16000重采样:

import os
import librosa
import tqdm
import soundfile as sf
import time

if __name__ == '__main__':

    audioExt = 'WAV'

    input_sample = 22050

    output_sample = 16000


    audioDirectory = ['/jf-training-home/src/emotional-vits/dataset/bae_before']


    outputDirectory = ['/jf-training-home/src/emotional-vits/dataset/bae']

    start_time=time.time()

    for i, dire in enumerate(audioDirectory):

        clean_speech_paths = librosa.util.find_files(
                directory=dire,
                ext=audioExt,
                recurse=True, 
            )

        for file in tqdm.tqdm(clean_speech_paths, desc='No.{} dataset resampling'.format(i)):

            fileName = os.path.basename(file)

            y, sr = librosa.load(file, sr=input_sample)

            y_16k = librosa.resample(y, orig_sr=sr, target_sr=output_sample)
   
            outputFileName = os.path.join(outputDirectory[i], fileName)
  
            sf.write(outputFileName, y_16k, output_sample)
        end_time=time.time()
        runTime=end_time - start_time
        print("Run Time: {} sec ~".format(runTime))

2..提取情绪

*注意:如果数据集是英文,可以默认提取情绪信息,如果是中文,需要更换预训练权重
!!

修改emotion_extract.py文件的第94行,改为自己的数据集路径

原代码rootpath = "dataset/nene"

改为自己的rootpath = "dataset/bae"

python emotion_extract.py --filelists src/emotional-vits/filelists/bae_train.txt src/emotional-vits/filelists/bae_val.txt

 如果出现问题参考【PS2】,运行时如图

TTS | emotional-vits情绪语音合成的实现_第1张图片

TTS | emotional-vits情绪语音合成的实现_第2张图片

TTS | emotional-vits情绪语音合成的实现_第3张图片

文件内会生成

TTS | emotional-vits情绪语音合成的实现_第4张图片

3.训练

#python train_ms.py -c configs/nene.json -m nene --ckptD /path/to/D_xxxx.pth --ckptG /path/to/G_xxxx.pth

python train_ms.py -c configs/bae.json -m emo_bae 

如果出现错误,参考【PS3】 

 开始训练

TTS | emotional-vits情绪语音合成的实现_第5张图片

一共3000条数据,8个小时epoch410->step24000

TTS | emotional-vits情绪语音合成的实现_第6张图片

4.推理

推理使用inference.ipynb,修改配置文件,以及权重文件路径

推理结果并不是完整的句子,可能是因为ser预训练加载的是英文的,而训练的数据集并非英文。

过程中遇到的问题与解决【PS】

【PS1】RuntimeError: Given groups=1, weight of size [512, 1, 10], expected input[1, 45140, 1] to have 1 channels, but got 45140 channels instead

 TTS | emotional-vits情绪语音合成的实现_第7张图片

 解决方案

pip install transformers==4.25.1

#或者在emotion_extract.py文件77行增加一个维度
y = y.unsqueeze(0)

 然后就解决啦~

【PS2】安装setuptools出错

TTS | emotional-vits情绪语音合成的实现_第8张图片

 删掉使用日语的库

【PS3】RuntimeError: stft requires the return_complex parameter be given for real inputs, and will further require that return_complex=True in a future PyTorch release.

TTS | emotional-vits情绪语音合成的实现_第9张图片

打开emotional-vits/mel_processing.py, 111行

添加了 return_complex=True

然后出现RuntimeError: mat1 and mat2 shapes cannot be multiplied (80x513 and 32x513)

TTS | emotional-vits情绪语音合成的实现_第10张图片

解决办法

pytorch包太新了导致的修改emotional-vits/mel_processing.py,

66行,67行【增加return_complex=False】

104行,105行【onesided=True后增加,return_complex=False】

其他

Q&A

怎么根据Ubuntu进程判断运行的程序?

第一步查询GPU进程

fuser使用

  • 安装: sudo apt-get update
  • sudo apt-get install psmisc
  • 查看显卡占用的进程: 
  • fuser -v /dev/nvidia*
  • 杀掉进程 kill -9 PID

TTS | emotional-vits情绪语音合成的实现_第11张图片

后面都是python,说明都是python命令

通过名称查看进程

ps -ef | grep python

 TTS | emotional-vits情绪语音合成的实现_第12张图片

 对比删除自己不用的进程就可以啦~

你可能感兴趣的:(#,TTS,-,Speech,-,人工智能,语音合成,tts)