浙大开源快速扩散语音合成模型FastDiff和ProDiff

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第1张图片

©PaperWeekly 原创 · 作者 | 黄融杰

单位 | 浙江大学

研究方向 | Speech/NLP

扩散模型在深度生成模型中自成一派,最近成为最热门的话题之一。扩散模型展示了强大的生成能力,无论是生成高水平的细节还是其生成的多样性,都让人印象深刻。

扩散生成模型将生成式建模领域的标准提高到了一个全新的水平。迄今为止,扩散模型已被应用于各种生成式语音建模任务,如语音合成(speech synthesis)、语音转换(speech conversion)、语音编辑(speech editing)、语音转换(speech-to-speech translation)等等。

然而,传统扩散模型主要基于梯度匹配的训练目标,因此高生成质量的保证通常以数百的去噪迭代为代价,给样本的快速合成带来阻碍。当试图减少去噪步时,去噪模型在复杂的数据分布中的收敛出现明显退化,导致样本中的带噪与过平滑的低质量生成结果。

浙江大学正在算法和网络结构层面探索如何让深度学习里最先进(State-of-the-art)的非自回归生成模型:降噪扩散概率模型(Denoising Diffusion Probabilistic Model, DDPM),在解决其原来的速度瓶颈的同时,仍能生成出与人声难以分辨的高质量语音, 并挖掘其应用在语音合成上的潜力。

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第2张图片

论文链接:

https://arxiv.org/abs/2204.09934

代码链接:

https://github.com/Rongjiehuang/FastDiff

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第3张图片

论文链接:

https://arxiv.org/pdf/2207.06389.pdf

代码链接:

https://github.com/Rongjiehuang/ProDiff

在今年的 IJCAI 2022 和 ACM-MM 2022 上,浙江大学的两篇论文提出了全新的语音合成条件扩散模型 FastDiff 和 ProDiff,能大幅减少 DDPM 每步降噪所需时间在解决其原来的速度瓶颈的同时,仍能生成出与人声难以分辨的高质量语音, 并挖掘其应用在语音合成上的潜力。FastDiff,ProDiff分别在声码器和语音合成上得到验证,揭示了扩散生成模型的包括去噪起点、生成算法、噪声采样的加速方法,克服了因模型加速带来的生成性能损失。

a367db24fd634603d671990b3247e08e.png

研究背景

降噪扩散概率模型(Denoising Diffusion Probabilistic Model,DDPM)是近两年开始火热起来的一种非自回归生成模型,特点是能以较为简单的训练方式在许多基准图像生成任务中达到跟 GAN 差不多甚至是更佳的生成质量。

在听感测试中,业内一些基于 DDPM 的声码器的合成质量已能赶上自回归模型,但生成速度仍要远低于同为非自回归模型的 Flow 和 GAN 模型。这是由于 DDPM 在建模上需要通过迭代几百上千个采样步数来得到有效的降噪,如何快速得到高质量的合成样本仍然是难以解决的瓶颈。

6cfe5933288da61901b76cc34b27ad8c.png

整体方案思路

在理论方面,定义语音样本为 。从 分布中采样:有预先定义的噪声编制(Noise Schedule): 。

扩散过程:

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第4张图片

反向过程:

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第5张图片

我们通过最大化证据下界(Evidence Lower Bound,ELBO),可以推导出简化的训练损失。这里,我们参考 BDDM [1],有效的训练方法是用随机梯度下降优化:

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第6张图片

其中, 是降噪神经网络(Score Network):

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第7张图片

其中,仅有噪声编制与去噪步数 T 是需要预先定义的,其他变量都可以依次计算出。

77301c9d9642a1df2f032e3cad5ec24c.png

FastDiff:高效的带噪波形条件建模

FastDiff 的主要创新点来自于降噪模型结构方面:

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第8张图片

如图(a)所示,FastDiff 模型主要由三层降采样块(DBlock)以及三层条件上采样块(Diffusion UBlock)构成。模型输入为带噪音频(Noisy Audio),噪声步数索引(表示为 t),梅尔频谱条件(Mel-spectrogram,表示为 c)。DBlock等同于 WaveGrad 中的 DBlock 结构。

而新设计的条件上采样块(Diffusion UBlock)如图(b)所示,先使用位置编码(Positional Encoding,PE)对 t 编码,然后经线性层后跟 c 相加,然后作为卷积核预测器(Kernel Predictor)的输入。预测的卷积核会在 Time-Aware Location-Variable Convolutoin(LVC)中使用。以下是引入 Time-Aware LVC 的作用和原理解释。

为了有效的捕获条件的局部信息,FastDiff 参考了 LVCNet [2] 设计 Time-Aware LVC,如图(c)所示,位置变量卷积能对梅尔频谱和噪声步数编码条件进行高效建模,使之能对应于不同的噪声水平,均能够高质量地生成所预测的卷积核。能在保持模型尺寸的同时获得了更优的音质和速度。该模块输入包括下采样的带噪音频,以及预测的卷积核。

在 Time-Aware LVC 中,Gated Activation Unit(GAU)门激活单元是为了提高本语音合成深度模型对于多说话人数据集的通用性,它在 WaveNet 中被证明能够有效地增加深度神器网络网络中的非线性。

总结 FastDiff 每步降噪的建模过程:卷积核预测器以噪声等级和梅尔频谱为条件,输出预测的卷积核。带噪音频通过三次下采样,经过 LReLU 激活与 Conv1d一维卷积计算后,与先前获得的预测卷积核,一同参与计算 Time-Aware LVC 区域卷积。得到的音频通过 GAU 以增加非线性,与残差相加后送到下一层 Diffusion UBlock 的子层(共四层),最后模型输出预测还原的噪声向量。

当降噪神经网络被充分训练之后,FastDiff 利用 BDDM 算法训练 Schedule network 来得到步数更少的噪声编制。当得到搜索后的噪声编制,FastDiff 能用以下的采样算法来进行高速的音频合成。

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第9张图片

在 LJSpeech 数据的实验中,如下表所示,FastDiff 能以 4 步降噪就能拿到相比前者最先进的声码器更优的主观及客观听感指标,同时 FastDiff 是首个在生成速度上能跟非 DDPM 类模型可比的(略比 WaveGlow 快)。在生成多样性上面,实验中较低的 NDB 和 JSD 也验证了 FastDiff 和其他 DDPM 类模型能比较避免模式坍塌问题。

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第10张图片

31c3158afb39273ec3ca56c7a9508dc1.png

ProDiff: 快速蒸馏式文本语音合成模型

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第11张图片

ProDiff 的主要创新点来自于训练策略方面:

我们首先对文本到语音的扩散参数化进行了初步研究,发现传统扩散模型通过估计数据密度的梯度来生成样本(表示为基于梯度的参数化),需要数百或数千次迭代才能保证较高的感知质量。当减少采样步骤时,由于可感知的背景噪声,质量明显下降。相反,通过使用神经网络直接预测干净数据来参数化去噪模型的方法(表示为基于生成器的参数化)已证明其在加速复杂分布的采样方面的优势。

基于这些初步研究,我们设计了更好的文本到语音合成扩散模型。在本文中,我们提出了 ProDiff,关于高质量文本演讲的渐进式快速扩散模型。为了避免在减少反向迭代时感知质量显著下降,ProDiff 直接预测干净的数据并且不需要估计分数匹配的梯度;

受到 [3] 启发,我们使用知识蒸馏预测扩散过程中方差减小的粗粒度梅尔谱图。为了通过减少扩散迭代来应对模型收敛挑战,知识蒸馏了减少目标端的数据方差。具体来说,去噪模型使用 N 步 DDIM 教师生成的样本作为训练目标,并将行为提取为一个新的 N/2 步模型。因此,它允许模型进行精确预测,并进一步按数量级加速采样。

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第12张图片

模型的损失函数主要由样本重建损失、结构相似性指数(SSIM)损失和声学特征(时长、音高、能量)重建损失。在训练 ProDiff 时,我们不使用原始的干净数据,而是通过运行教师的 2 个 DDIM 采样步骤来获得方差减小的目标值。结构相似性指数(SSIM)损失是衡量图像质量的最先进的感知指标之一,它可以捕获结构信息和纹理。声学特征(时长、音高、能量)重建损失为了提高生成语音的自然度和表现力,我们提供了更多的声学方差信息,包括音高、持续时间和能量。

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第13张图片

在 LJSpeech 的实验表明,ProDiff 仅需 2 次迭代即可合成高保真音频,同时它通过保持了生成样本的质量和多样性,与 SOTA 模型相比具有竞争力。ProDiff 在单个 NVIDIA 2080Ti GPU 上实现 24 倍于实时的采样速度,从而实现扩散模型在低计算量的情况下适用于交互式、真实世界的语音合成应用。

为了评估反向采样中扩散模型的效率,我们报告了每次迭代后获得的 MCD 结果。如图所示,我们与高度优化的随机基线采样器 DiffSpeech [4] 进行了比较:1)DiffSpeach 从高斯噪声中缓慢地细化粗粒度样本,高样本质量的保证是以数百个去噪步骤为代价的;2) 相比之下,ProDiff Teacher 和 ProDiff 预测直接预测无噪数据,使用扩散生成模型后验分布加入扰动,更快、更有效地产生接近最优的结果。

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第14张图片

outside_default.png

参考文献

outside_default.png

[1] Max W. Y. Lam, Jun Wang, Dan Su, and Dong Yu. "BDDM: Bilateral Denoising Diffusion Models for Fast and High-Quality Speech Synthesis." In Proc. ICLR 2022.

[2]Zeng Zhen, et al. "LVCNet: Efficient Condition-Dependent Modeling Network for Waveform Generation." In Proc. ICASSP 2021.

[3] Tim Salimans and Jonathan Ho. Progressive distillation for fast sampling of diffusion models. In Proc. ICLR 2022.

[4] Jinglin Liu, Chengxi Li, Yi Ren, Feiyang Chen, Zhou Zhao. Diffsinger: Singing voice synthesis via shallow diffusion mechanism. In Proc. AAAI 2022.

[5] https://github.com/NATSpeech/NATSpeech. A Non-Autoregressive Text-to-Speech (NAR-TTS) framework, including official PyTorch implementation of PortaSpeech (NeurIPS 2021) and DiffSpeech (AAAI 2022).

更多阅读

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第15张图片

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第16张图片

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第17张图片

cb1149b62f175196f6f3dc5f8306b290.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

浙大开源快速扩散语音合成模型FastDiff和ProDiff_第18张图片

△长按添加PaperWeekly小编

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

50fa71a0a0e44ba19c72b61b41ef80db.jpeg

你可能感兴趣的:(算法,计算机视觉,神经网络,机器学习,人工智能)