论文阅读《Modular Adaptation for Cross-Domain Few-Shot Learning》

hello~
十二月了 好像一切再按下了快捷键前进
恍然间2021年还剩下19天了…
默默前进的同时好像也在默默失去些什么…
今天还清小样本跨域的库存

论文名称:《Modular Adaptation for Cross-Domain Few-Shot Learning》
论文地址:https://arxiv.org/abs/2107.00358

Background

1.Adapting pre-trained representations has become the go to recipe for learning new downstream tasks with limited examples.
2.An ideal pre-trained representation to start with is one that is learned in domains relevant to the target task or sufficiently diverse to enable effective transfer.
这边提到一个词即适应预先训练的表示,为学习新的下游任务的一个trick。
一种理想的预训练表示是在与目标任务相关的领域中学习的或足够多样化以实现有效迁移的表示。

Work

we propose a modular adaptation method that selectively performs multiple state-of-the-art adaptation methods in sequence. As different downstream tasks may require different types of adaptation, our modular adaptation enables the dynamic configuration of the most suitable modules based on the downstream task
本文提出了一种模块化适应方法,选择性地执行多种最先进的(SOTA)适应方法。由于不同的下游任务可能需要不同类型的适应,模块化适应能够基于下游任务动态配置最合适的模块.
该方法可以基于领域特征动态定制,作为常用的一刀切解决方案的替代方案。

Model


模型主体如上图所示,可以说是一个集成各种方法的适应框架(Modular Adaptation Pipeline,MAP),MAP根据给定的下游任务的特征,动态选择最合适的模块及其超参数。(有存在on/off开关)
MAP依次应用这些选定的模块,使预先训练好的模型适应目标下游任务。
每个模块将一个模型和自适应数据集作为输入 并生成一个自适应模型作为输出

构建过程:
1.To build MAP, we first standardize few-shot adaptation methods into modules, where each module takes as the input a model and the adaptation datasets, and produces an adapted model as the output.
2.We chain these modules into a consolidated pipeline, where multiple adaptation methods are applied in sequence.
3.Given a downstream task, which adaptation modules should be applied as well as the parameters of each selected module can be flexibly configured and automatically optimized via Bayesian optimization

1.将小样本自适应方法标准化为模块,(如图中有finetuning,protonet,domain adaptation等即基于FSL、域适应(DA)、微调和半监督学习七种不同类型适应方法的MAP的实例。)每个模块将一个模型和自适应数据集作为输入,并生成一个自适应模型作为输出。
2.将这些模块链到一个统一的管道中,其中按顺序应用多种自适应方法。(这些模块按固定顺序链接,可以使用跳过连接“关闭”。)
3.给定一个下游任务,每个选定模块的超参数都可以通过贝叶斯优化进行灵活的配置和自动优化。


Experiments

引入了一个更大规模的跨领域FSL基准,该基准适应了ImageNet预训练的表示,具有更多的类,以弥补现有的小规模跨领域FSL基准和所需的大规模转移学习之间的差距


总的来说还是可以说一句集成大法好!


END~
年底顺心!

你可能感兴趣的:(论文阅读《Modular Adaptation for Cross-Domain Few-Shot Learning》)