小样本学习调研

元学习小样本学习论文总结200篇至 [email protected]申请

 

小样本机器学习算法的特性分析与应用

小样本学习介绍

小样本学习领域的研究进展

当小样本遇上机器学习

一:零碎纪录

1.最前沿:让神经网络学习比较来实现少样本学习 - Flood Sung的文章 - 知乎 https://zhuanlan.zhihu.com/p/35379027

  • 论文链接
  • 源码链接
  • 元学习:Meta learning
  • 维基百科小样本学习 one shot learning
  • 李飞飞-小样本学习

2.几个博客

小样本学习遇上机器学习--------随笔记录

 

二:2018年小样本学习年度进展报告(付彦伟-复旦大学)

1.有监督和无监督方法

小样本学习调研_第1张图片

2.基于迁移学习的方法

目前的实验结果显示:大部分已经发表的one-shot learning方法在miniImageNet数据集上的结果,比不过resnet-18的结果

  • Wang Yuxiong的文章Learning to Learn: Model Regression Networks for Easy Small Sample Learning,他们用原数据构建了很多模型库,然后目标数据直接回归这些模型库。具体就是在source class上训练一个regression network。对于大量样本我们可以得到一个比较好的分类器。对于少量样本我们可以得到一个没那么好的分类器。这个regression network的目的就是把没那么好的分类器映射成比较好的分类器。即,把一个分类器的权重映射到另一个分类器。
  • 小样本学习调研_第2张图片
  • Matching Networks for One Shot Learning,这个文章很有意思,从标题中就能读出大概做了什么工作。对于一张图片,我们训练一个matching network来提取它的feature。然后用一个简单的数学公式来判断feature之间的距离。对于新的图片,根据它与已知图片的距离来进行分类。这篇文章精巧地设计了训练的过程,来使得这个过程与测试时的过程一致。
  • 小样本学习调研_第3张图片
  • (model-agnostic meta-learning for fast adaptation of deep networks)MAML,是与模型无关的meta-learning的方法,它主要侧重于深度网络的快速适应。这篇文章的思想就是找到一个网络最好的初始位置,这个初始位置被定义为:经过几个小样本的调整后可以得到最好的表现。
  • 小样本学习调研_第4张图片
  • Optimization as a model for few-shot learning,也是meta-learning的方法,将任务组织成一个最优化的问题。这篇文章将梯度下降的过程与LSTM的更新相对比,发现它们非常相似。所以可以用LSTM来学习梯度下降的过程,以此使用LSTM来做梯度下降的工作。
  • 小样本学习调研_第5张图片
  • meta networks(ICML2017),也是meta-learning方法。其中利用了少量样本在基础网络中产生的梯度,来快速生成新的参数权重。
  • 小样本学习调研_第6张图片
  • NIPS一篇prototypical network for fast shot learning,主要是在matching networks的基础上做了一些更改。它们给每一个类一个原型,样本与类的距离就是样本与原型的距离。然后选用欧氏距离替代了matching network的余弦距离。
  • 小样本学习调研_第7张图片
  • CVPR的Learning to compare: Relation network for few-shot learning。简单来说就是用embedding module来提取feature。然后用relation module来输出两个feature之间的距离。一次来通过距离进行分类选择。
  • 小样本学习调研_第8张图片
  • 更多论文
  • 小样本学习调研_第9张图片

3.数据增强的文章介绍 

  • semantic feature augmentation in few-shot learning,作者今年的提交到ECCV的一个工作,用左边的encoder-trinet把视觉特征映射到语义空间。因为语义空间上有更丰富的信息,可以在语义空间上做数据扩充(添加高斯噪声和寻找最近邻),再映射回视觉空间来得到更多的扩充样例。
  • 小样本学习调研_第10张图片
  • ICCV2017这篇文章根据已有的图像去生成新的图像,然后做low-shot 视觉识别。具体来说,比如说你有三张图片:一张是鸟,一张是鸟站在树枝上,一张是猴子。那么你可以学习一个网络让它生成猴子站在树枝上的图片。本质上是,想把一个类的变化迁移到另一个类上,以此来做数据扩充。
  • 小样本学习调研_第11张图片
  • 去年在CVPR上发表的文章AGA,主要针对3D数据,把图像投影到一个属性空间做数据增强。这是一个few-shot learning方法。具体就是,给定几张距离观测者不同距离的桌子的照片,以及一张凳子的照片,让机器学会如何去生成不同距离的凳子的照片,以此来做数据扩充。
  • 小样本学习调研_第12张图片

4.小样本学习灾难性遗忘的问题

在 one-shot learning之上,我们还可能遇到一个问题,one-shot learning只关注目标类别上的分类问题,我们希望学习到的模型对源数据类别也适用,否则将带来一个问题,被称为灾难性遗忘。

  • 发表在PNAS的文章提出EWC 模型来解决这个问题。灾难性遗忘往往源于我们学习任务B的时候更新网络,使得任务A做的没那么好了。EWC提供了一种方法来计算权重对于任务A的重要性,把重要性引入到损失函数中,来避免更改会影响A效果的权重。
  • 小样本学习调研_第13张图片
  • 还有learning without forgetting这篇文章,也是侧重于解决这个问题。简单来说就是拿到一个新任务后,我们会更新网络。我们希望在更新网络前后网络没有太大变化,所以我们添加一个loss来限制网络更新前后对于这个新的任务输出的特征不能有太大变化,也就是一个distill loss。
  • 小样本学习调研_第14张图片

 

小样本学习还有很多可以研究的东西。目前的成果主要还是基于把已知类别的一些信息迁移到新的类别上。可能未来可以尝试下更多的方向,比如利用无监督的信息或者是半监督的方法。

论文集下载,提取码: ksny 

 

 

 

你可能感兴趣的:(深度学习,小样本学习)