从元学习角度看待和思考通用智能(Valse2019\1\2)学习笔记

讲者一:王宇雄(卡内基梅隆大学博士):

他做了很多one-shot, two-shot、few-shot的工作,他表示few-shot learning学的是从小样本模型到大样本模型的映射,一个变化,一个迁移,目前的Meta-learning可以看成是元学习的一种。 Meta-learning的网络其实就是一个回归的过程,将不同的采样尺寸的Few-shot回归到Many-shot的模型,学习到的是模型变换的链式规则。(这个因为我进去的比较晚,只听到了后面的,感觉王博士讲了很多few-shot的干货,感兴趣的可以把全程视频找出来听听)

讲者二:俞扬(南京大学副教授):

俞扬教授主要谈的是元学习在强化学习中的应用,他表示强化学习和传统的机器学习不一样,传统的机器学习是一个预测的过程,而强化学习是学习一个决策,也就是强化学习是需要在真实环境中试错,来跟环境进行交互,这样代价高,所以他们只能使用虚拟器来模拟真实环境,但是如何将虚拟器中学到的知识有效地应用在真实环境中,这是元学习能解决的事情。利用元学习来实现跨环境

在传统的机器学习中,若是一个训练好的分类器,在见到一个并不属于它之前训练数据中的任何一类的时候,它还是会强行将其分成其中一类,但是我们希望分类其知道自己的能力范围,或者说能够感知和理解新的环境。

虽然Meta-learning很早就被提出来,但是没有被广泛应用,有可能①算法不成熟②对Meta-learning的需求不多。

panel环节:

(这边因为发言人我也听不出来谁是谁,比较乱,将就着看吧)

1、元学习定义?Meta-learning 等于 Learning to learn吗?

现在很难定义元学习,元学习其实就是学习如何从封闭到开放,模型和算法自动的设计自动的构建,若是环境和目标在变,希望知识可以自适应。

我们可以构建机器学习从元学习角度思考,深度学习建立在标准深度学习,人工智能可能是无监督学习,在有监督和无监督中间的灰色阶段,元学习在这个阶段发挥作用,学习如何泛化已有知识。

苏航:深度学习“表征学习”, 很多网络的结构、超参数还是人工指定的;AI:除了表征,也该学习超参数、网络结构、优化等要素。
元学习:培养机器的学习能力

2、元学习到目前最成功的例子是什么?

俞扬:模拟器到真实环境跨是必须要用元学习,

元学习在不同任务相关程度较高的场景才会有用,对样本自适应的选择,如何对样本的理想性的学习,舍弃不好的样本。

分类和识别问题,元学习可以看成迁移学习的一种方式,目前的元学习学到的是关于小样本的meta-level的知识,再迁移到其他任务上。存在的问题是真实样本少。
Meta-learning其实也是从特定的任务,特定的数据库中学习到的,只不过作用域可能和作用的层次和传统的机器学习不一样,所以我们可能还会有Meta-Meta-Meta-learning这个东西。

4、元学习和迁移学习、领域自适应等有何关联和区别?

不用太纠结定义,关于学习的学习,在经典学习方法之上的都叫meta-learning, 经典算法泛化能力不足,元学习在强化学习,分层的强化学习,学习到的是在不同场景通用的决策。

5、元学习能实现人类的举一反三和触类旁通能力吗?

相似的任务和相似的环境会形成一些元知识,把元知识应用在其他领域中。
形式:连续;离散

multi-task的学习,是学习到如何寻找task之间的通用的特征,元知识和multi-task不一样,对知识有自己的编码,元知识是用来推广,处理没见过的东西。

归纳跟演绎结合到一起,不是只用深度学习,演绎是人类的特有的推理,目前的深度学习都是用的归纳的方法。

6、人脑有很强的可塑性和代偿能力,元学习是否有这方面的可能尝试?

整个感知系统有个通用的元算法,这些算法可以用到多模态的数据。

小样本学习是任务,元学习是解决这些任务的方法。长尾分布,人工将这些数据进行平衡,小样本学习是长尾分布中一个简化的任务。

多个小样本参数到大样本模型的映射,所以对小样本的泛化性好(个人感觉有点像Adboost这种,用几个弱分类器组合,但是元学习应该不是学的这种简单的映射)。

few-shot:并不是说没有样本,使用的是样本背后的信息(其他样本的信息),如何将其他相关类别的知识,来迁移过来,看到的是样本的知识(concept learning)

苏航:Meta-learning没有脱离机器学习,任然是需要建立在机器学习上的,task层面的表征的问题很难解决,机器学习都是在数据层面的表征问题。meta-learning有自己独立的特点。

从meta-learning这个角度思考问题,tracking问题也可以看成一个one-shot learning的过程。

个人总结

之前一直陆陆续续有接触到Meta-learning的东西,但是老是一知半解,一直想给这个东西下个定义,但是这些学者告诉我们不用纠结于定义,Meta-learning其实是一个新的领域,新的概念,可能我们用到了它我们也不知道。其实就是一个学习元知识的过程,元知识中的“元”我觉得可以把它理解为,是一个最低层的知识,就像我们的细胞一样,我们都是从几个干细胞分化来的,而干细胞是从受精卵分化来的,元知识就是扮演着干细胞的角色。我们人类在蒙住眼睛一段时间后,可以用听觉、触觉来感知世界,可以理解为我们的各种感觉拥有着十分相似的感知系统,就是一个通用的感知元算法。若是我们能让机器学习到这种元算法,那是不是在某种任务上学习到的东西可以用在其他机器没见过的任务,就是俗称的举一反三、触类旁通呢?想想还有点恐怖哈哈哈~

你可能感兴趣的:(从元学习角度看待和思考通用智能(Valse2019\1\2)学习笔记)