用于改进说话人验证的对比混合学习

CONTRASTIVE-MIXUP LEARNING FOR IMPROVED SPEAKER VERIFICATION

摘要

  1. 本文提出了一种全新的mixup原型损失;

  1. mixup是一种简单高效的数据增强方法--可以制造随机数据点和标签对的加权组合;

  1. mixup在深度学习中可以提升模型的鲁棒性和泛化能力;

  1. 尽管mixup已经在很多领域成功应用,但绝大多数都是闭集的分类任务;

  1. 本文提出contrastive-mixup,这是一种新奇的数据增强策略--可以学到基于distance metric的具有区分性的representation;

  1. 在训练中,mixup可以对输入和虚拟标签生成convex interpolations(凸插值),另外,本文重新阐述了prototypical loss,证明mixup适用于度量学习目标;

  1. 本文在少量数据上验证了其泛化能力,相较于baseline有16%的提升;

Index Terms:mixup、度量学习、prototypical loss

你可能感兴趣的:(ICASSP,2022,深度学习)