[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation

[2022]李宏毅深度学习与机器学习第十一讲(必修)-Domain Adaptation

  • 做笔记的目的
  • Domain Shift
  • Domain Adaptation
    • Little but labeled
    • Large amount of unlabeled data
    • little and Unlabeled

做笔记的目的

1、监督自己把50多个小时的视频看下去,所以每看一部分内容做一下笔记,我认为这是比较有意义的一件事情。
2、路漫漫其修远兮,学习是不断重复和积累的过程。怕自己看完视频不及时做笔记,学习效果不好,因此想着做笔记,提高学习效果。
3、因为刚刚入门深度学习,听课的过程中,理解难免有偏差,也希望各位大佬指正。

Domain Shift

主要有以下三种可能:

  1. train和test的输入不一样
  2. train和test的输出不一样
  3. train和test的标签不一样
    这里主要放在第一种上面,这个也更加常见。
    [2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第1张图片

Domain Adaptation

根据知道的target domain的信息多少策略不同。

Little but labeled

可以进行fine-tune,但是要防止Overfitting,所以不要跑太多的次数,可以设置小一点的学习率。
[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第2张图片

Large amount of unlabeled data

在目标数据集上有很多资料但是没有标签
[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第3张图片
找出Feature Extractor,source data 和target data 的分布差不多,要训练一个Domain分类器,想办法骗过Domain分类器,这个非常像是GAN。
[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第4张图片
[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第5张图片
可以看到下图,不会发生模型坍塌,因为Feature Extractor的损失是 L − L d L-L_d LLd.
[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第6张图片
这个方法是有用的如下图,括号里面是提高的精度。[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第7张图片
第二个方法明显更加好,我们应该让模型远离分界点
[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第8张图片
所以有论文进行了改进,让结果更加集中。
[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第9张图片

little and Unlabeled

没有标签同时资料很少,可用TTT的方法,其实我感觉像是zero-shot问题。
[2022]李宏毅深度学习与机器学习第十讲(必修)-Domain Adaptation_第10张图片

你可能感兴趣的:(深度学习,李宏毅深度学习笔记,深度学习,人工智能)