Meta-Learning and in-context Learning

目录

前导:

Inductive Learning

transductive learning

Meta-Learning

Definition:

How to train

in-context Learning


前导:

Inductive Learning

译为“归纳式学习”,即根据对以往数据的观察,来预测新数据的属性;在机器学习中,就是根据已有数据,学习出一个分类器,然后应用到新的数据或任务,对应meta-learning

transductive learning

译为“直推式学习”,即根据对以往数据的观察,结合少量的新数据,来判断更多新数据的属性;在机器学习中,就是根据已有的数据结合给定的少量测试数据来推广到更多的测试数据上,对应in-context learning

Meta-Learning

Definition:

普通的迁移学习指的是,通过一个预训练过后的模型,根据下游任务的不同,模型可以通过微调来处理各种各样的任务。在元学习中,训练的时候就需要准备不同的任务,根据任务的不同进行训练,普通的机器学习训练时不区分任务,以BERT为例,训练的时候用的是wikipedia的数据。

元学习指的是,通过很多的任务和数据得到一个大的可以解决各种各样任务的一个模型,这个模型可以根据下游任务的不同输出一个可以解决下游任务的模型,即没有微调这一阶段预训练时即可解决多任务的情况。元学习的本质是要学会如何学习,模仿人类学习,通过一些训练实例快速学习新的任务。一些元学习的应用如下所示:

1、对非猫图像进行训练的分类器可以在看到少量猫图片时判断图像是否包含猫;

2、游戏机器人快速掌握一个新游戏:例如alpha go学会下象棋;

3、一个只在平地上行走的微型机器人学会在上坡路面上完成行走。

How to train

为了直观的理解如何训练,这里不描述具体的公式,只用自然语言来概括一下。元学习通过不同的任务进行递进的学习,模仿人类的学习过程。假设有一系列任务{a,b,c,d,e},元学习首先在基础的任务a上进行学习,然后通过a的经验训练任务b,以及类推,如果学习这几个任务学习完了以后,有新任务达到的话,接着通过前面的经验学习新的任务(只需要少量样本),注意学习新任务的时候是在新的结构上学习的,之前学习任务的结构和权重并没有被抛弃,仍然被保留下来,所以在学习新任务的时候仍然没有忘记之前学习到的知识。

in-context Learning

in-context learning:根据一些新任务的部分输入输出(demonstrations)并且对新的输入进行预测从而执行一个新任务。

下面的例子展示了GPT-3中是如何进行in-context learning的:

Meta-Learning and in-context Learning_第1张图片

 大家适当理解,可能有不对之处。。。烦请指明。

(25 封私信 / 38 条消息) 什么是meta-learning? - 知乎 (zhihu.com)

一文入门元学习(Meta-Learning)(附代码) - 知乎 (zhihu.com)

Meta-Learning: Learning to Learn Fast | Lil'Log (lilianweng.github.io)

(25 封私信 / 38 条消息) 如何理解 inductive learning 与 transductive learning? - 知乎 (zhihu.com)

[2005.14165] Language Models are Few-Shot Learners (arxiv.org)

你可能感兴趣的:(nlp,knowledge,inductive,transductive,meta-learning,ini-context)