Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se

1)算法简介
DMLC (Domain-aware Meta-learning strategy is devised to benefit Loss Correction )引入NTM(noise transition matrix )矩阵,用domain-invariant source data构造meta data,去guide NTM的估计。发表在CVPR2021,应该是目前UDA语义分割最好结果,GT5–>CitySpcace (51.2/52.1).

2)问题现状

为了缩小domain gap,主要有两类方法:

  • 基于对抗的方法:在外观/特征/输出层面分布对齐,缺点是忽略了domain-specific的知识(整体对齐),在具体任务上,并不能保证足够的判别性

  • 基于self-training的方法:解决无监督域适应非常有效,充分利用了target data(伪标签)和source data(标签),缺点是target 数据伪标签噪声的问题。

​ 针对于伪标签噪声的问题,已有的研究工作是设置阈值来过滤掉低置信度的样本,但这个阈值很难界定。在训练时,样本都是一些高置信度的样本,会引起预测bias,即有些样本会被错误划分为置信度高的类别,引起错误累积。其次就是过滤掉的target样本,有可能丢失很多有用的信息。

​ 实际上那些噪声伪标签往往出现在小的类别和不明确的类别中。

Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第1张图片
理论上,通过NTM矩阵(encode 类间错误划分的关系),噪声伪标签是可以转化为ground truth 。
解决方案

​ 由于domain gap,target data的伪标签肯定包含噪声,因此,设计domain-aware 的元学习(学习学习)策略进行loss correction,具体点就是对伪标签的噪声分布建模,所以需要估计NTM(噪声概率转移矩阵),估计NTM就是关键。

思想:获取目标域clean data标签分布的元知识

DMLC过程:

  • 引入domain predictor获取用domain-invariant source data

  • 用domain-invariant source data构建meta data set (用domain-invariant source data)

  • 经验风险最小化(元学习训练):更新NTM

  • loss correction,交替优化

3)具体Motivation
1、ST的框架,没啥可说的,就一个cross-entropyMeta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第2张图片
2、由于伪标签并不能百分百正确,所以公式(1)对伪标签和模型一起优化是很难的,假设就用常规的ST方法,直接公式(1)其实可以训练得到一个模型,然后可以估计每个类别预测的后验概率p。一般来说,这时估计的类别预测往往不准确,因为伪标签是noisy的。(比如像素点原本是sidewalk,被预测为road)。

Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第3张图片
所以引入NTM(类似于状态转移矩阵 )矩阵T,Tjk表示真实是第j个类别转为第k个类别的概率。还是以噪声标签为例,预测的是road(真实是sidewalk)。那预测为road,无非是其他类别或road预测为road类别,所以乘以一个转移矩阵是合理的。**那最优的转移矩阵是怎样的???**sidewalk类别转为road概率最大就是想要的。所以对target部分修正后的loss为:
Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第4张图片
这里的关键是这个矩阵T,得知道sidewalk是长啥样,换句话,要有各个类别的经验(知识),所以论文提出用clean data的标签的分布来引导T的估计。其实就是在学习一个经验,比如模型看过很多像素点,sidewalk的像素点应该是这样,而road的像素点应该是那样,这些就是所谓的元知识。

4)优化T的过程(DMLC)

Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第5张图片
Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第6张图片

Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第7张图片
具体训练优化过程(交替优化) ,先看一次训练的过程,第i次迭代时:

  • 1、virtual optimization

​ 把target样本输入分割网络(meta-net),初始有T和W,此时去优化w,注意这个更新的w不是分割网络的w,而仅仅只是meta-net的w,meta-net和分割网络一模一样。

Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第8张图片
2、meta optimization

​ 更新好w后,就可以用meta data去训练T,最优的T是在meta data上经验风险最小
在这里插入图片描述
3、meta optimization

得到T后,代入到分割网络,按正常训练去更新分割网络参数wMeta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se_第9张图片
总结下: 这有点像GAN的思想,初始时,给定一个T和W,然后输入target样本,固定T,优化W,其实是在告诉meta-net,这样更新后的w才能让当前target样本损失最小,然后用meta-data去验证下,应该这样更新后的T才是最优的,最后拿最优的T去更新分割网络的参数,当前迭代结束,转下一次迭代。因此,整个过程很依赖meta知识正不正确,毕竟meta-data是从source上采样过来的,依赖预训练的domain-predictor估计可以改进下。

拓展

重点关注解决噪声label问题的3类方法

  • label correction (标签修正)

    [1] Eric Arazo, Diego Ortego, Paul Albert, Noel E O’Connor, and Kevin McGuinness. Unsupervised label noise modeling and loss correction. In ICML, 2019. 3

    [2] Zizhao Zhang, Han Zhang, Sercan O Arik, Honglak Lee, and Tomas Pfister. Distilling effective supervision from severe label noise. In CVPR, pages 9294–9303, 2020. 2, 3

  • sample reweighting (样本重新赋权重)

    [3]Lu Jiang, Zhengyuan Zhou, Thomas Leung, Li-Jia Li, and Li Fei-Fei. Mentornet: Learning data-driven curriculum for very deep neural networks on corrupted labels. In ICML, 2018. 3

    [4]Hao Li and Maoguo Gong. Self-paced convolutional neural networks. In IJCAI,2017. 3

    [5]Jun Shu, Qi Xie, Lixuan Yi, Qian Zhao, Sanping Zhou, Zongben Xu, and Deyu Meng. Meta-weight-net: Learning an explicit mapping for sample weighting. In NeurIPS, 2019. 3, 4

  • loss correction (loss修正)

    [6]Jacob Goldberger and Ehud Ben-Reuven. Training deep neural-networks using a noise adaptation layer. In ICLR, 2017. 3

    [7] Dan Hendrycks, Mantas Mazeika, Duncan Wilson, and Kevin Gimpel. Using trusted data to train deep networks on labels corrupted by severe noise. In NeurIPS, 2018. 3, 4

    [8]Giorgio Patrini, Alessandro Rozza, Aditya Krishna Menon,Richard Nock, and Lizhen Qu. Making deep neural networks robust to label noise: A loss correction approach. In CVPR,pages 1944–1952, 2017. 3, 4

    [9] Zhen Wang, Guosheng Hu, and Qinghua Hu. Training noise robust deep neural networks via meta-learning. In CVPR,pages 4524–4533, 2020. 3, 4

    [10] Jun Shu, Qian Zhao, Zengben Xu, and Deyu Meng. Meta transition adaptation for robust deep learning with noisy labels. arXiv:2006.05697, 2020. 2, 3, 4

你可能感兴趣的:(域适应系列文章,机器学习,深度学习,神经网络)