StarGANv2-VC

会议:2021 interspeech
作者:Yinghao Aaron Li
单位:Columbia University

文章目录

    • abstract
    • introduction
    • method
    • experiments
      • dataset

abstract

  • StarGAN v2做many-to-many的变声,使用20个英文说话人训练,可以完成any-to-many,cross-lingual, singing voice conversion。
  • 使用style-encoder,可以把plain speech转换成stylistic speech。

introduction

变声的技术路线可以分为三类:

  • Auto-encoder approach:encoder去编码说话人无关的信息,需要设定各种限制移除说话人相关的信息;
  • GAN-based:使用判别器判断生成的语音和真实目标人的相似度,因为不能保证判别器从real data中学到了合理的信息,因此转换生成的语音可能会有相似度不高、发音错误等问题;
  • TTS-based:利用文本标签,保证了音色一致度,但是不能适用于没有文本的场景。

本文是基于StarGAN的框架,对比自然度和相似度结果超过了AUTO-VC 和VTN (tts-based)

method

使用StarGAN v2一样的结构,加入 joint detection and classification (JDC) F0 extraction network保证基频一致性;
StarGANv2-VC_第1张图片
目标函数
StarGANv2-VC_第2张图片

  • 对抗损失
    StarGANv2-VC_第3张图片
  • asr loss
  • 基频一致性
  • 风格区分性 L d s L_{ds} Lds,随机挑选两个风格,区分度越大越好

experiments

dataset

  • VCTK20人的数据,for style JVS dataset(10人,有正常的和假音的句子);for emotion emotional speech dataset (ESD),

你可能感兴趣的:(paper笔记,语音识别,深度学习,人工智能)