论文和代码链接
以前的对抗性学习方法仅重点关注两个不同分类器的输出之间的相似性。然而,输出的相似性不能保证目标样本的分类的准确性,即使两个分类器之间的差异很小,目标样本也可能与错误类别匹配。在本文中,我们提出了一种跨域梯度差异最小化(CGDM)方法,该方法明确地最小化了源样本和目标样本产生的梯度的差异。为了计算目标样本的梯度信息,我们通过基于聚类的自我监督学习进一步获得目标伪标签。
现有的对抗域适应方法可以以两种方式实现。
CGDM采用源泉和目标样本之间的梯度差异作为额外的监督。此外,考虑到源代码器获得的伪标签可能不够准确,我们利用基于聚类的自我监督方法来获得用于目标样本的更可靠的伪标签。通过对齐梯度向量,可以在类别级别更好地对齐两个域的分布。
主要贡献总结如下:
基于伪标签的方法
我们在两个域之间介绍梯度相似度量,我们首先通过gs和gt表示通过源和目标示例的预期梯度。源样本的适当梯度制定如下:
为了计算由目标样本产生的渐变,需要标签信息,但是,这正是我们想要在UDA问题中获得的。为了解决这个尴尬的情况,我们将伪标签分配给目标样本;由于伪标签可能仍然不正确,以减轻可能具有不正确的伪标签的模糊目标样本的噪声,我们使用基于每个目标样本的预测熵来计算梯度的预测熵来计算加权分类损失。
在通过梯度差异损耗LGD在步骤3中更新发生器时,我们最小化这两个梯度向量之间的差异,在这里我们使用余弦相似性来表达差异,
通过该源域和目标域的分布在考虑样本的语义信息时对齐。
在本文中,我们使用加权聚类策略来获得更可靠的伪标签。在这里,我们使用两个分类器的Softmax输出来样本权重以获得第K类的质心ck,通过最近的质心策略获得伪标签
这里D可以是任何特定的距离度量功能,我们在本文中使用余弦距离。
以诱导模型来学习鉴别的原始目标分布,并鼓励每个样品围绕正确的决策边界。用于自我监督学习的加权分类损失
通过上述自我监督过程,我们通过使用源数据和目标数据进行微调模型来改善步骤1中目标分布的差异,以便在随后在类别级别对准两个域之间的样本。
在这项工作中,我们的目标是通过使用自我监督的学习来解决双分类器对抗性学习的潜在缺点,并最大限度地减少由源域和目标域产生的梯度信号的差异。总而言之,通过利用自我监督损失,步骤1的优化目标可以如下重新制定
其中α> 0是权衡参数,可以根据验证集进行调整。在MCD之后,我们使用’1distance在步骤2中估计两个不同分类器之间的差异。在步骤3中,我们在两个域之间的梯度差异增加约束,因此最终的优化目标变为