一言不合就“神经网络”,难道这条路就确定是对的?

最近“人工智能”的热度已经到了让人无法回避的地步,而但凡谈及“人工智能”,机器学习、深度学习、xx神经网络就会被“想当然”的套用过来,仿佛这些技术确然就是通向人工智能的康庄大道。然而老土一直觉得这个事情不对劲儿,所以一直在问自己,因为神经网络是在模仿人脑的运作方式就认为建立足够规模和复杂度的神经网络将是构建人工智能的正确路线,这个对吗?仿生也许是解决某些问题的有效手段,但也有足够的案例证明一味地仿生也许并不是真正正确的路线,比如:飞机,比如:汽车!

一言不合就“神经网络”,难道这条路就确定是对的?_第1张图片
莱特兄弟和他们的“飞机”

不过老土只能算是机器学习和人工智能领域的新丁(可能说自己是“新丁”都是在抬举自己),人微言轻,因此虽然老土经常跟自己的学生慷慨的谈论上面的观点,却也无力声张,终于今天读到了一个帖子,观点与老土是一致的,不过人家的title吓人,“Facebook的AI研发主管”。今天老土转发这个帖子有两个目的:

一是尽自己之力,让这个观点尽可能的多传播一点,哪怕只是一点点。因为浪费在错误路线上的精力实在是太可惜的。当然老土也不敢断言(那个AI主管也没有断言)神经网络的路线是错误,只是在探究人工智能的路线的时候,还是要时时记得神经网络也许只是一个选项;

二是想问“依靠人力搞出一定规模的样本,而后投入到基于开源项目搭建的xx神经网络中,而后调参,得出较好结果”这种科研方式真的是对的吗?今天我们选择神经网络作为开展人工智能研究的重要(首要)技术途径的原因可千万不要是因为神经网络相关的开源项目更多更成熟呀...

可能是老土想多了,还是住嘴转帖吧!

一言不合就“神经网络”,难道这条路就确定是对的?_第2张图片
Facebook的AI研发主管:Yann LeCun

Facebook AI 研发主管:一味模仿人脑将阻碍AI的发展(http://36kr.com/p/5093817.html)


编者按:本文来自微信公众号“新智元”(ID:AI_era),编辑:常佩琦,36氪经授权发布。

Facebook的AI研究负责人指出,一味模仿人脑开发AI将会阻碍AI的发展。很多业界专家也有类似的论调,他们认为AI研究的重点不应是模仿大脑的工作机制,而应该是探寻智能的根本原则。

有些人认为,造物主是按照自身形象创造出人类。而人工智能可能是人类最伟大的发明,人类也一直试图按照自身来创造AI。最典型的方法是以数字形式再造人类大脑。然而顶尖科学家并不认同这一方式,认为试图完全模拟人类大脑纯属浪费时间。应从别的地方寻找灵感。

巴纳德学院的天文学家Janna Levin说,“我们并未真正理解人类大脑。我们试图探索大脑,却没有奏效。“ Levin近期主导了一个关于人工智能技术和伦理前景的圆桌讨论。

“我们自己都不了解人类大脑,何谈创造人工大脑?”

参与圆桌讨论的专家表示,这是一个棘手的问题。人类并不能完全模拟大脑。所以,人类更应该花时间去解锁智能的根本原理。

MIT未来生命研究院的主任Max Tegmark认为,过度关注人类大脑就是一种“碳沙文主义“。尽管科学家并未完全了解大脑运行的机制,但可以说的是,这不神奇。

Tegmark说,“我们太迷恋大脑的运行机制了。这是一种想象力的匮乏。”

从历史上看,他的观点是成立的。在维多利亚时代,一个叫做Clément Ader的工程师从蝙蝠中获得灵感,建造了第一架飞行机器。

Ader在无法掌控这个装置的情况下持续飞行了数百米。但为什么怀特兄弟声名远扬,而他不为人所知呢?

Tegmark认为,这是因为怀特兄弟真正从科学角度研究了飞行原理,而Ader始终在模仿生物。怀特兄弟通过建造风洞和测试来研发飞机,而非仅仅模仿生物。这个道理同样适用于人工智能。

但即使按照人类自身形象来创造人工智能,也不是最正确的路径。上述的圆桌讨论总是会回归到生物学这个议题。

Facebook的AI研发主管 Yann LeCun认为,“你可以从生物学中获取灵感,但你并不想简单复制。从工程角度来看,溯源进化过程将会异常困难。“

经过数百万年的随机突变,人类得以繁殖,我们才能出现在这里。这是一个恒等式。而将大脑的智能和推理能力最大化或是简单化,都是不明智的。

人类大脑的运行机制异常复杂。婴儿还在母体内的时候,大脑便能自行组装。在人的一生中,大脑也具有自行修复功能。而机器并不需要这些机制。机器只需要接收并处理数据,进行学习。

有监督运行和强化学习是人工智能进行学习的两种方式。

LeCun解释说,对于更传统的监督学习,人类必须输入数千个示例,机器才能真正开始工作。比方说,图像识别算法必须首先看到无数个苹果,才能做到精准识别。

另一种方式是强化学习。AI算法和神经网络可以互相训练。通常这种方式只适用于博弈。一个象棋AI可以随时与自己进行数百万次对弈,来学习象棋比赛中的微妙细节。

但这两种方法都不完美,无法真正教会AI认识世界。人类仍在监督学习中挑大梁;象棋AI除了下象棋以外一无所知。

LeCun说,“我们在以非常愚蠢的方式训练神经网络。”

婴儿在二个月大时就能理解客体永久性。半岁时,能直观理解物质世界如何运转。但目前为止,人类还无法让机器进行类似的无监督学习。

如果有人能实现机器的无监督学习,这些人很可能是LeCun和他的团队。只有巨头公司才拥有足够的资源和架构,来训练高级神经网络。但在圆桌讨论期间,LeCun只是耸耸肩,表示“我们也还没有想法。”

对AI来说,生物基础至关重要。这个基础并不是人类大脑的完全重建。人类大脑是一个科学奇迹,但不是唯一的答案。AI研发者需要牢牢记住,人类本身并没有多么特殊,他们应该尝试寻找一些新的灵感。

你可能感兴趣的:(一言不合就“神经网络”,难道这条路就确定是对的?)