论文笔记:Cross-Modulation Networks For Few-Shot Learning

这两天读完的一篇论文,Universitat Autònoma de Barcelona和Google Brain对小样本学习的研究,已被NIPS 2018 Workshop on Meta-Learning接收。其中的研究思路值得mark学习下。论文不长,除去引用和实验表格和图片,内容才3页,所以能很快读完。但里面涉及到许多概念需要补其他论文,所以需要一定时间理解,以下简单总结整理:

摘要

简单总结介绍了下元学习的几个流派:

  • 学习一个好的模型参数初始位置,以便能够快速更新到新模型
  • 学习一个好的映射空间,通过距离来做预测(即基于度量的学习)
  • 学习一个不依赖大量数据梯度下降就能更新模型的优化器
  • 学习一个采用记忆等额外模块的新模型

而作者在基于度量的学习的模型基础上,通过Cross-Modulation方法将每个抽象级别的support and query examples 整合,来达到更好的预测表现。

方法

论文的核心方法是将Feature-wise Linear Modulation(FiLM)方法引入到度量学习中,关于FiLM的思想和具体实现可查阅原论文,这里就简单介绍下。
FiLM 将一种条件决定的面向特征的仿射变换(缩放平移)引入网络结构中,其仿射变换的参数有输入样本经过一定函数变换得到,如下图中一个视觉推理的例子。向GRU输入推理问题的自然语言,输出仿射变换的参数,然后作用到每个ResBlock中。相当于让GRU对CNN网络产生作用,并且这个作用是跟提出问题的自然语言信息有关,起到了类似“推理”的效果。
论文笔记:Cross-Modulation Networks For Few-Shot Learning_第1张图片

而作者的运用也比较简单,网络结构如下所示,作者根据support and query examples的中间信息作为输入得到仿射变换的参数,作用到卷积块上,相当于利用到中间的信息帮助预测。
论文笔记:Cross-Modulation Networks For Few-Shot Learning_第2张图片

实验

作者通过两组实验来证明方法的有效,一组是和同类方法在miniImageNet上精度的对比,发现确实的得到的改进,另一组是将仿射变换噪声不通过学习计算的到,而是作为随机的人工噪声输入,结果发现精度下降。两者结合说明提出的Cross-Modulation方法确实起到了效果。
论文笔记:Cross-Modulation Networks For Few-Shot Learning_第3张图片

总结

感觉目前元学习比较多的研究都还是从别的研究领域的突破上“借”东西,因为毕竟深度学习来说很多方法的思路或者是目标是相通的,不外乎是和过拟合和欠拟合梯度爆炸(弥散)等各种斗争中产生的“经验”然后总结成普遍适用的方法。所以,感觉搞元学习研究,不能光盯着一块,还得多向其他成熟的研究上学习经验才行。
公式啥的就不贴了,因为总的论文思路还是很清晰明确的,想看具体实现可参考下面附的论文。

  1. FiLM: Visual Reasoning witha General Conditioning Layer
  2. Cross-Modulation Networks ForFew-Shot Learning

你可能感兴趣的:(read,some,paper)