Vicarious说,现在的深度学习都是渣渣--转自微信

未来的某一天,几家 AI 公司在装逼,

DeepMind:“我们训练了一个下棋的神经网络,击败了李世石。”

依图科技:“我们训练了一个识别坏蛋长什么样的网络,在几百几千人中找一个坏蛋只需要零点零几秒。”

Tesla:“我现在就敢搞 auto pilot,未来暴增的驾驶数据能训练出比人类更可靠的自动驾驶...”

Vicarious:“你们可以训练出一个既能下棋、又可以识别坏蛋、还能自动驾驶的系统吗?”

DeepMind、依图科技、Tesla 集体懵逼了。

这个段子可不完全是段子。Vicarious正在做这样的事——“通用人工智能”,简单点理解,像人类一样用一个“脑子”学习不同的技能。真正的质变。

此前你可能从未听说过这家公司,名不见经传的 Vicarious 到底是何方神经?看看这份投资人名单:Mark Zuckerberg、Elon Musk、Peter Thiel、Jeff Bezos ...Vicarious 不是AI民科,他们并非无能之辈,只是比较低调和神秘。Vicarious 从2010年就开始了通用人工智能的研究,2013年他们破解了验证码测试(CAPTCHA),这意味着所有互联网公司开发的键入书写验证失效,本来是一个爆炸性的消息,但直到2016年之前,他们都没有向外界透露。


<img src="https://pic3.zhimg.com/v2-66dc8d526fe51461c5007eecb405761e_b.jpg" data-rawwidth="800" data-rawheight="495" class="origin_image zh-lightbox-thumb" width="800" data-original="https://pic3.zhimg.com/v2-66dc8d526fe51461c5007eecb405761e_r.jpg">

如果你更深入了解这家公司的技术方案,Vicarious 会让你惊为天人,这也是消息灵通的硅谷众大佬们闷不吭声给够钱的原因。

举个栗子,AlphaGo 虽然4:1击败了李世石,但那是学习了三千万盘棋才获得的胜利,李世石同学终其一生也才能下几万盘,李世石同学用少得多的样本,习得了接近AlphaGo的围棋棋力,而且李世石下棋时耗费的那点生物能量相比AlphaGo运行需要开启不计其数的GPU,高下立判。

人脑的高效,围绕着非常少的样本,输入一点点数据,就能够训练出在计算机看来不可思议的能力。这种高效,就是大脑的超级泛化能力。

而但凡对人工神经网络有那么一点研究的人都知道,无论是CNN、DBN、CDBN,限制各式神经网络极限的,都是过拟合:它们对训练数据有非常好的识别较果,此时模型会复杂且非常“不灵活”,只要换一些精心甄别的、不一样的样本,它们立刻就变成瞎子。

深度神经网络其实需要极其庞大的数据,才能训练出一些泛化能力,因为近些年互联网时代大数据爆发,机器不知疲倦的特性,才实现了在特定任务上、非常狭窄范围内接近或者超过人类的表现。

神经网络只是人脑复杂认知功能一部分解剖学成果,而Vicarious 的方案,是从根本上模拟和接近人脑的能力,在适应新环境、新情况、习得新技能上,这种超级泛化能力是智能的根本所在:

Vicarious 的牛逼之处,深度神经网络用230万个样本才获得识别验证码的能力,Vicarious 仅仅才用了260个。


<img src="https://pic4.zhimg.com/v2-8bfe8ad3b907238eb64baae9c54614db_b.jpg" data-rawwidth="800" data-rawheight="362" class="origin_image zh-lightbox-thumb" width="800" data-original="https://pic4.zhimg.com/v2-8bfe8ad3b907238eb64baae9c54614db_r.jpg"> Vicarious说,现在的深度学习都是渣渣--转自微信_第1张图片

这是如何做到的?Vicarious 的研究人员 Dileep George 在EmTech 的一场公开演讲中谈到,

这不是像深度学习一样,训练计算机从海量样本找到CAPTCHA共有的匹配特征,而是重新让计算机自己构建一个CAPTCHA。


<img src="https://pic2.zhimg.com/v2-4375d1f4e2ee3a859e92b188b8f9a7f5_b.jpg" data-rawwidth="800" data-rawheight="754" class="origin_image zh-lightbox-thumb" width="800" data-original="https://pic2.zhimg.com/v2-4375d1f4e2ee3a859e92b188b8f9a7f5_r.jpg"> Vicarious说,现在的深度学习都是渣渣--转自微信_第2张图片
“深度神经网络是从每一个样本字母a中抽象特征,Vicarious 的方法关键是让计算机自己‘创造’一个字母 a 的模型”

Vicarious 把生物智能分为两个阶段,old brain 时代和 new brain时代,两者的区别就如下图中的青蛙一样,青蛙只看到了面前有“虫子”,不断地尝试吃,这是一种对输入信息的神经动作“映射”,而青蛙无法理解为什么吃不到,因为它碰到了新情况时无法“虚拟”出一个屏幕的概念...


<img src="https://pic1.zhimg.com/v2-2ac8d0256e7ba53485d96f2c19012fa8_b.jpg" data-rawwidth="1624" data-rawheight="1835" class="origin_image zh-lightbox-thumb" width="1624" data-original="https://pic1.zhimg.com/v2-2ac8d0256e7ba53485d96f2c19012fa8_r.jpg"> Vicarious说,现在的深度学习都是渣渣--转自微信_第3张图片

这种说法,很容易让人联想起《人类简史》从头到尾强调的东西:人类之所以特别,就是因为近二十万年foxP2基因的突变导致语言的出现,大脑可以虚拟一些自然界并不存在的概念,比如龙、宗教、国家、社会组织、意识形态等等。

“Vicarious 就像 AI 界的扫地僧,”

其实,只要你了解 Vicarious 老大 Scott Phoenix 对神经网络的深刻洞察,你一定会多多少少认同上面的评价。这家不太喜欢抛头露面的公司,几乎找不到第二个案例,他们一直专注在AI 根本性的突破上:

“深度神经网络(DNN)需要大量的训练数据,不能很好地适用于新的任务或环境。”“此外深度学习往往侧重于学习输入感知与输出动作之间的映射(如用于做分类决策或者是围棋、Atari游戏上的移动的决策),对大脑功能的模拟,太过单一。” “我们认为智能的本质是能够学习一个所处在世界的心理模型(mental model ),然后能否在这个模型上进行模拟(所谓想象力)。”

Vicarious 强调,实现通用人工智能的路径,一是要突破神经认知科学,二需要专注于样本数据的学习效率和泛化“通用”任务的能力。


<img src="https://pic3.zhimg.com/v2-49995b285556e12a3c8f0f4ae9164b5e_b.jpg" data-rawwidth="800" data-rawheight="278" class="origin_image zh-lightbox-thumb" width="800" data-original="https://pic3.zhimg.com/v2-49995b285556e12a3c8f0f4ae9164b5e_r.jpg">

Dileep George 最后还展示了未来类人机器人如果只用深度神经网络打造,会出现什么情况:他们会把穿着下图衣服的人,识别成海星....


<img src="https://pic1.zhimg.com/v2-83f2816dca88b775b38a06486cfb06b4_b.jpg" data-rawwidth="800" data-rawheight="421" class="origin_image zh-lightbox-thumb" width="800" data-original="https://pic1.zhimg.com/v2-83f2816dca88b775b38a06486cfb06b4_r.jpg"> Vicarious说,现在的深度学习都是渣渣--转自微信_第4张图片

注:本文首发于微信公众号“伪geek”,《Vicarious说,现在的深度学习都是渣渣》,作者杨青山,转载请注明。

你可能感兴趣的:(综合)