迁移学习——论文集推荐

来自PaperWeekly的CSDN 文章

14 篇论文为你呈现「迁移学习」研究全貌 | 论文集精选 #04

 

    迁移学习对于人类来说,就是掌握举一反三的学习能力。对于计算机而言,所谓迁移学习,就是从一个或多个源任务(source task)中抽取知识和经验,然后将其应用于一个有相关性的目标领域(target domain)

(1)Domain adaptation via transfer component analysis

论文链接:http://www.paperweekly.site/papers/793

    迁移学习领域公认的经典工作,作者团队来自香港科技大学 Qiang Yang 教授团队,推荐所有做迁移学习研究的同学都看一看。

(2)Geodesic flow kernel for unsupervised domain adaptation

论文链接:http://www.paperweekly.site/papers/794

    迁移学习领域代表性文章——GFK(Geodesic flow kernel)。GFK 方法首先解决 SGF 的问题:如何确定 source 和 target 路径上中间点的个数。它通过提出一种 kernel 方法,利用路径上的所有点的积分,把这个问题解决了。这是第一个贡献。然后,它又解决了第二个问题:当有多个 source 的时候,我们如何决定使用哪个 source 跟 target 进行迁移?GFK 通过提出 Rank of Domain 度量,度量出跟 target最近的 source,来解决这个问题。

(3)Transfer feature learning with joint distribution adaptation

论文链接:http://www.paperweekly.site/papers/795

    迁移学习领域又一经典文章,是 TCA 的增强版本,推荐读。JDA 方法比较巧妙,同时适配两个分布,然后非常精巧地规到了一个优化目标里。用弱分类器迭代,最后达到了很好的效果,值得我们去学习。

(4)Unsupervised Domain Adaptation by Backpropagation

论文链接:http://www.paperweekly.site/papers/1035

代码链接:https://github.com/shucunt/domain_adaptation

    深度迁移学习经典文章。

(5)How transferable are features in deep neural networks?

论文链接:http://www.paperweekly.site/papers/796

代码链接:https://github.com/yosinski/convnet_transfer

    探究深度网络的可迁移性质,非常值得读。虽然该论文并没有提出一个创新方法,但是通过实验得到了以下几个结论,对以后的深度学习和深度迁移学习都有着非常高的指导意义。神经网络的前 3 层基本都是 general feature,进行迁移的效果会比较好;深度迁移网络中加入 fine-tune,效果会提升比较大,可能会比原网络效果还好;Fine-tune 可以比较好地克服数据之间的差异性;深度迁移网络要比随机初始化权重效果好;网络层数的迁移可以加速网络的学习和优化。

(6)Deep Domain Confusion: Maximizing for Domain Invariance

论文链接:http://www.paperweekly.site/papers/1038

    深度迁移学习最早期的代表性文章,虽然至今为止不知道发在哪里(一直只是在 arXiv 上),但是引用量很大,算是比较基础性的工作。值得一读。

(7)Learning Transferable Features with Deep Adaptation Networks

论文链接:http://www.paperweekly.site/papers/797

    深度适配网络(Deep Adaptation Netowrk,DAN)是清华大学龙明盛提出来的深度迁移学习方法,最初发表于 2015 年的机器学习领域顶级会议 ICML 上。DAN 解决的也是迁移学习和机器学习中经典的 domain adaptation 问题,只不过是以深度网络为载体来进行适配迁移

(8)Simultaneous Deep Transfer Across Domains and Tasks

论文链接:http://www.paperweekly.site/papers/1040

    传统的深度迁移学习方法只进行 domain confusion,这个文章加入了 task transfer,也就是说,充分考虑到类别之间的相似性。

(9)A Unified Framework for Metric Transfer Learning

论文链接:http://www.paperweekly.site/papers/1039

    这篇文章的作者团队来自新加坡南洋理工大学,主要老板是 Sinno Jialin Pan,他是迁移学习大牛杨强的学生,《A survey on transfer learning》的第一作者。文章比较新,值得一读。

(10)Adversarial Discriminative Domain Adaptation

论文链接:http://www.paperweekly.site/papers/690

代码链接:https://github.com/erictzeng/adda 和 https://github.com/corenel/pytorch-adda

    ADDA 总结了 DA 领域的总体架构,提纲挈领。

(11)Correlation Alignment by Riemannian Metric for Domain Adaptation

论文链接:http://www.paperweekly.site/papers/1042

一个比较新的工作,但是创新性比较小:只是将现有的 CoRAL 工作中的距离度量换成了在黎曼空间下的度量

(12)Understanding How Feature Structure Transfers in Transfer Learning

论文链接:http://www.paperweekly.site/papers/1044

    IJCAI-17 最新文章,理解迁移学习中 feature 是如何进行 transfer 的。有两个大牛 Qiang Yang 和 Dacheng Tao 坐镇,文章肯定不差。

(13)Associative Domain Adaptation

论文链接:http://www.paperweekly.site/papers/686

代码链接:https://github.com/haeusser/learning_by_association

    相比较 ADDA 而言,从很大程度上提升了 DA 的性能,值得一读。

(14)Learning to Transfer

论文链接:http://www.paperweekly.site/papers/1041

    迁移学习领域比较新的研究方向,将迁移学习与增量学习结合起来,是开创性的工作。建议一读。

 

 

 

 

 

你可能感兴趣的:(机器学习)