元学习笔记——MAML

这里写自定义目录标题

  • 元学习
    • 元学习架构
    • 元学习现状
    • MAML
      • 算法原理
      • 算法流程
      • 算法流程
      • 后续研究
  • 参考文献

元学习

元学习(meta-learning),或者学会学习(learning to learning),指通过学习一系列相似任务,归纳(抽象)出这些任务的本质规律(通用属性——权重/超参)。当面对全新的任务时,可以根据学得的规律,做微调,便可快速适应。

元学习架构

元学习笔记——MAML_第1张图片
元学习笔记——MAML_第2张图片

元学习现状

1 基于模型 model-based
数据一次性喂入,学习1个模型的参数
2 基于度量 metric-based
学习核变换参数
3 基于优化 optimization-based
学习元模型参数

MAML

模型无关的元学习model agnostic meta learning ,包括一个base-model learner和一个meta-learner,每个base-model learner 学习一个specific task,meta-learner学习多个specific task的平均性能θ,作为新任务的初始化参数。

算法原理

所有任务共享初始参数θ,学习一个好的初始化参数(提供一个指导方向),避免新任务从头开始学
MAML已经被证明与MLP一样可以近似任意函数
元学习笔记——MAML_第3张图片

算法流程

元学习笔记——MAML_第4张图片

算法流程

1 适用场景

  • task不同但相关
  • 输入空间相同,数据分布不同,即同构
  • 标签空间相同
  • 预测函数f不同

2 优点

  • 快速适应,适用于few-shot learning
  • 参数可用gradient descent训练

3 缺点

  • 所有base-model和meta-model参数空间的自由度相同
  • 存在元过拟合问题,因为所有task(训练及测试)需要来自同一个分布,当分布选择不合理,或者采样时多样性不足会导致这一问题。
  • 虽然可以解决少样本问题,但是训练所需样本量的大小(信息量)没有固定的范围,需要通过试验确定
  • 在算法层面上,训练是以批处理的方式进行的,并不是顺序、增量的。
  • 二次梯度可能不稳定

后续研究

  • 关于task的选取,Chelsea 小姐姐团队还有后续的研究,可以实现无监督元学习,如任务的自动获取——《unsupervised meta-learning for RL》
  • 同时,他们也做了关于算法背后的理论研究,如从概率角度、分层贝叶斯角度解释其工作原理——《meta-learning and universality:deep representations and gradient descent can approximate any learning algorithm》
  • ppt建议看NIPS2018上Sergey Levine的《what‘s wrong with meta-learning》和《meta-learning frotiers:universal,uncertain and unsupervised》

参考文献

[1]:《Model vs Optimization meta learning》Oriol Vinyals NIPS2017
[2]:《model agnostic meta learning for fast adaptation of deep networks》 Chelsea finn 2017
[3]:《ICML 2019 tutotrial》
[4]:《Incremental Learning-to-Learn with Statistical Guarantees》
[5]:《meta-learning and universality:deep representations and gradient descent can approximate any learning algorithm》

你可能感兴趣的:(元学习笔记——MAML)