VITS 语音合成完全端到端TTS的里程碑

Conditional Variational Autoencoder with Adversarial Learning for End-to-End Text-to-Speech(ICML 2021)

KAKAO公司与KAIST韩国科学院,近年在TTS领域佳作频出,目前最主流的HiFiGAN声码器也是其成果。

目录

概览:

突破点:

high level的优缺点总结:

VITS优点                            

缺点:

模型详解:

看懂需要的前置知识,推荐苏神的生成模型系列文章:

1. 变分推断(Variational Inference)

2. 随机时长预测模块​

3. 解码器模块​


概览:

提出一种TTS模型框架VITS,用到normalizing flow和对抗训练方法,提高合成语音自然度,其中论文结果上显示已经和GT相当。结合VAE和FLOW的前沿架构。

代码: https://github.com/jaywalnut310/vits

Demo地址: https://jaywalnut310.github.io/vits

论文地址:https://arxiv.org/abs/2106.0610


突破点:

  • 首个自然度超过2-stage架构SOTA的完全E2E模型。MOS4.43, 仅低于GT录音0.03。声称目前公开系统最好效果。

  • 得益于图像领域中把Flow引入VAE提升生成效果的研究,成功把Flow-VAE应用到了完全E2E的TTS任务中。
  • 训练非常简便,完全E2E。不需要像Fastspeech系列模型需要额外提pitch, energy等特征,也不像多数2-stage架构需要根据声学模型的输出来finetune声码器以达到最佳效果。
  • 摆脱了预设的声学谱作为链接声学模型和声码器的特征,成功的应用来VAE去E2E的学习隐性表示来链接两个模块
  • 多说话人模型自然度不下降,不像其他模型趋于持平GT录音MOS分

VITS 语音合成完全端到端TTS的里程碑_第1张图片VITS 语音合成完全端到端TTS的里程碑_第2张图片

  


high level的优缺点总结:

VITS优点                      

VITS 语音合成完全端到端TTS的里程碑_第3张图片

  • 合成速度足够快

    • 三个主要网络结构均为可并行的非自回归结构保证了合成速度:
      • 和Fastspeech系统相同的transformer作为文本Encoder
      • 和Glow-TTS相同的Flow结构作为VAE的主体
      • 和HiFiGAN生成器相同的反卷积作为Decoder
  • 长文本稳定性好
    • 采用了Glow-TTS相同的单调对齐搜索算法(MAS), 保证生成对齐的稳定性
  • 语音多样性好
    • 在预测音素时长的模块中也引入Flow结构增加生成韵律的多样性

​​​​​​​VITS 语音合成完全端到端TTS的里程碑_第4张图片VITS 语音合成完全端到端TTS的里程碑_第5张图片


缺点:

  • 多样性,稳定性的trade off
  • 训练收敛速度慢
  • 全局信息学习能力较弱(韵律,风格略平淡)

                                VITS 语音合成完全端到端TTS的里程碑_第6张图片

                                接近GT,但是单独做CMOS还是比GT要低的。


模型详解:

看懂需要的前置知识,推荐苏神的生成模型系列文章:

1. VAE系列文章,看到你自己觉得懂了:变分自编码器(一):原来是这么一回事 - 科学空间|Scientific Spaces

VAE变分自编码机详解——原理篇 - 知乎

2. Flow/Glow:

细水长flow之NICE:流模型的基本概念与实现 - 科学空间|Scientific Spaces

细水长flow之RealNVP与Glow:流模型的传承与升华 - 科学空间|Scientific Spaces

3. 上述两者的结合,也就是本篇论文主要部分:

细水长flow之f-VAEs:Glow与VAEs的联姻 - 科学空间|Scientific Spaces


了解一个模型就从它的Loss入手:

Loss:

三部分Loss对应三个主要模块:


1. 变分推断(Variational Inference)

优化目标:最大化条件下界(ELBO)

VITS 语音合成完全端到端TTS的里程碑_第7张图片
 

符号解释:
z 为线性谱经过后验编码器后得到的隐变量
y_hat 为 z 经过decoder后得到预测音频序列
x 为真实音频的Mel谱
c 为文本, d为音素时长duration,A为对齐矩阵
p(x|c) 和 p(x|z) 分别为目标 x 对 c 和 z 的最大似然


 

 重构Loss:

  • 预测音频 y_hat 提取的Mel谱和真实Mel谱的L1 Loss
  • Decoder为HiFiGAN声码器的generator生成器

 VITS 语音合成完全端到端TTS的里程碑_第8张图片


VITS 语音合成完全端到端TTS的里程碑_第9张图片


2. 随机时长预测模块

  •  通过单调对齐搜索算法(MAS),  获得文本编码后预测的均值方差和隐变量 z 通过Flow后的正态分布的最优对齐矩阵。
  • 时长预测模块去学习这个对齐矩阵序列
  • Flow应用到此模块增加生成序列的多样性

3. 解码器模块

  •  Decoder即为HiFiGAN的生成器,两个Loss也对应原论文中相同的对抗Loss和特征鉴别器Loss, 想深入了解可以参考原论文。

总结与思考

你可能感兴趣的:(TTS,算法,人工智能,语音识别,tts)