少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第1张图片

论文作者:Yizhe Xiong,Hui Chen,Zijia Lin,Sicheng Zhao,Guiguang Ding

作者单位:Tsinghua University; Beijing National Research Center for Information Science and Technology (BNRist); Hangzhou Zhuoxi Institute of Brain and Intelligence

论文链接:http://arxiv.org/abs/2309.15575v1

项目链接:https://github.com/Bostoncake/C-VisDiT

内容简介:

1)方向:无监督域适应

2)应用:少样本无监督域适应

3)背景:在真实世界的场景中,为源域提供充足的标签数据通常是不可行的,因为标注的难度和成本很高。因此,最近的研究开始考虑Few-shot Unsupervised Domain Adaptation (FUDA)的情况,其中只有少量源域样本被标记,并通过自监督学习方法进行知识传递。然而,现有方法通常忽视了稀疏标签设置对可靠源知识的学习造成的阻碍。此外,目标样本中的学习难度差异通常被忽略,导致难以分类的目标样本被错误分类。

4)方法:本文提出了一种新颖的Confidence-based Visual Dispersal Transfer learning方法(C-VisDiT)用于FUDA。具体来说,C-VisDiT包括一个跨域视觉分散策略,仅传输高置信度的源领域知识以进行模型适应,以及一个领域内视觉分散策略,引导学习难以处理的目标样本。这有助于解决FUDA中的两个问题,提高模型的泛化性能。

5)结果:在Office-31、Office-Home、VisDA-C和DomainNet基准数据集上进行了大量实验,结果表明,所提出的C-VisDiT方法明显优于最先进的FUDA方法。代码可在https://github.com/Bostoncake/C-VisDiT上获得。

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第2张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第3张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第4张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第5张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第6张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第7张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第8张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第9张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第10张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第11张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第12张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第13张图片

少样本无监督域适应:Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation_第14张图片

你可能感兴趣的:(计算机视觉,人工智能)