20211026 FSL 自适应嵌入空间

使用Set-to-Set函数实现任务自适应嵌入的小样本学习

参考

  1. 论文下载
  2. github

动机

protonet架构中,嵌入空间是任务无关的,学习一个任务相关的特征空间。

直观效果

20211026 FSL 自适应嵌入空间_第1张图片
“外推效果:使prototype远离杂乱,靠近自己的簇”

方法框架图

20211026 FSL 自适应嵌入空间_第2张图片
使用tranformer(自注意力)实现自适应的目的

疑问

  1. 如何实现任务特定的嵌入空间的学习?
    使用transformer对prototypes进行处理。自注意力实现了什么效果?为什么能实现这样的效果?为什么transformer能实现自适应的目的?

  2. 对比学习如何使用?
    20211026 FSL 自适应嵌入空间_第3张图片
    第二项loss就是对比loss。
    l前一项loss的prototype是support set的样本得到;后一项loss中的cn是由所有样本(support set+query set)得到。第二项loss叫做正则项loss是很合适的。

  3. set-to-set functions使得prototypes变得分散了吗?
    应该没有。外推应该是由第二项损失实现的。第二项loss会使得每个类的query特征更靠近cn,而cn又是由support和query特征平均得到的。

参考代码中的FEAT/model/models/feat.py
20211026 FSL 自适应嵌入空间_第4张图片

  1. ZSL是否能学习未见类自适应的嵌入空间?

##相似论文

GLoMo: Unsupervised Learning of Transferable Relational Graphs20211026 FSL 自适应嵌入空间_第5张图片

这篇论文通过迁移关系图,而不是迁移特征实现迁移任务。

你可能感兴趣的:(小样本学习,FSL)