上帝与蚂蚁?人工智能必须适可而止

前些日子,世界首富比尔盖茨、科技界大牛埃隆马斯克和硕果仅存的科学界泰斗斯蒂芬霍金纷纷表示,人类应该警惕人工智能。

三局两胜,柯洁也败给了“阿尔法狗”。


上帝与蚂蚁?人工智能必须适可而止_第1张图片

实际上人工智能早就已经无孔不入,我们提起人工智能时,第一时间想到的是机器人或“阿尔法狗”,其实人工智能可以是任何形态。

比如说咱们日常生活中经常使用的苹果智能语音助手——siri,百度或今日头条经常会根据你经常浏览的信息为你推送你喜欢的内容,我们工作中经常使用的各种输入法也都带有学习和记忆功能,这些其实都是人工智能。

显然,人工智能极大的方便了我们的生活,那我们为何还要警惕它呢?



我是小明的上帝小明是老王的上帝


上帝与蚂蚁?人工智能必须适可而止_第2张图片

在学术界有一个名词,叫做科技爆炸,用一个小故事可以形象的形容这个词语。比如说,我把生活在明朝的小明带到了今天,小明看到遍地都是高楼大厦,一个一个的铁盒子在路上跑,巨大的铁制大鸟在天上飞,地底下居然会有一列一列的钢铁巨龙来来往往的装载路人。然后呢,你再跟他聊聊核武器、互联网、国际空间站等等他闻所未闻的东西,我相信他的反应绝不仅仅是惊讶那么简单。

要知道,小明生活在一个交通基本靠走、安全基本靠狗、通讯基本靠吼的时代,当他看到这些他根本无法理解的东西时,他会被直接吓傻甚至吓疯


上帝与蚂蚁?人工智能必须适可而止_第3张图片

小明回到明朝之后,他也想把别人吓疯,于是他也想去找一个过去的人来到他的时代,问题来了,他得找哪个朝代的人才能把他吓疯呢?明朝距今天只有几百年而已,如果小明也找一个几百年前的人的话,能把人家吓疯吗?

很显然不能,如果来一个唐朝人的话,没准人家会觉得你过得还不如我呢。毕竟唐朝时,首都长安的人口已经达到了100万人,而明朝时首都的人口也就不过如此。就算是春秋战国时期,魏国首都大梁的人口也已经达到了40万人。


上帝与蚂蚁?人工智能必须适可而止_第4张图片

所以,小明要想把人吓疯的话,只能去找生活在距今天1万多年以前的原始社会的老王才行。因为老王没有见过摩肩接踵的巨大城邦,没有见过经过精细打磨、削铁如泥的宝刀或宝剑,没有见过装备整齐、身披铁甲的军队,更没有见过可以航行于海洋上的巨舰。

那接着问题又来了,如果老王也想找个过去的人去将其吓疯的话,又得去找谁呢?去找2万多年以前的人能做到吗?显然不行,老王可能只能去找生活在几十万年以前的北京猿人才行,因为毕竟老王掌握了火,掌握了磨光和钻孔技术,能够用骨针缝制衣服,懂得爱美。


上帝与蚂蚁?人工智能必须适可而止_第5张图片

我之于小明大概是上帝般的存在,小明之于老王,老王之于北京猿人也是如此。大家发现没有,时间节点之间的距离越来越近,从几十万年到1万多年,从一万多年到几百年,这些时间节点就是所谓的科技爆炸。



从蚂蚁到上帝我们再也上不了车

其实刚才所讲的这个小故事说明了一个道理,就是人类的科技发展速度,是几何式增长的。

前文中咱们提到,人工智能是具备学习能力的。


上帝与蚂蚁?人工智能必须适可而止_第6张图片

假设,不久的将来,最初研发出的高级人工智能可能智商很低,也许智商水平只相当于一个单细胞生物,它可能需要不断的学习几十年才能达到一个植物的水平,再过十几年才能达到一只蚂蚁的水平,但是这个时候它可能再过5年就是老鼠,再过一年就成了黑猩猩,而此时它只需要再过几天,智商水平就会和人类相等。

但是,这种情况下,它会不会就此刹车呢?恐怕不会,它再过1个小时,智商水平就会是人类的上万倍,再过几天,它的智商水平对于人类来说就会与上帝无异。

这绝不是危言耸听,首先,人脑的神经元传播信息的速度不过一秒钟100多米,而电脑的传播速度为光速。其次,人脑纵使有几千万亿个神经元,但人脑的存储量是有限的,而电脑的存储量理论上是无限扩展的。再次,电脑的集体协作能力极高,一个电脑学会一个事物之后,只要连上互联网,全天下的电脑都可以在短时间内学会。最后,人脑的稳定性和可靠性与电脑相比差距太大,人脑会累会烦,而电脑可以全年365天永远处于峰值水平运行,永远不需要休息。

所以,我刚才所推演的学习速度,其实是比较保守的。


上帝与蚂蚁?人工智能必须适可而止_第7张图片

人工智能和人类的关系,像极了一群人在等一列火车,人工智能是火车,而咱们人类是等车的那群人。最开始的时候,火车行驶的特别的慢,可能几十年才走了100多米,所有人都等得极不耐烦。可是后来,火车越来越快,越来越快,所有人都在拍手叫好,等着上车的那一刻。

可惜的是,当这列火车行驶到跟我们同等智慧程度的时候,它的速度就像一道光,我们发现,原来我们再也上不了车了。



无论善恶 皆为惘然


上帝与蚂蚁?人工智能必须适可而止_第8张图片

很多人都觉得,如果真的有这样一个上帝也挺好的,说不定这是一个仁慈的上帝呢?但是事实是,甭管它善还是恶,对于人类来说可能都面临着灭顶之灾。

打个比方吧,一个人类在思考的问题,一只蚂蚁是否明白呢?答案是,蚂蚁永远也明白不了,就算它再花一亿年,甚至十亿年,它也依旧只是一只蚂蚁。不管你有多么的疼它、爱它,不管你对这只蚂蚁怀有多么大的善意,它也永远理解不了MBA、微积分或者《道德经》。甚至你想把它捏起来,送到一个安全的地方,可能稍微用劲用大了,它就被捏死了。

人类对于超级人工智能来说,就是那只蚂蚁,当人工智能用神的角度去思考问题的时候,凡人永远无法理解,它只要稍微用力过猛,人类就有可能灭绝。


上帝与蚂蚁?人工智能必须适可而止_第9张图片

早在很多年前,就有很多著名科学家认为,不要妄想去和外星文明进行沟通,因为如果一种生物的文明程度远远高于你的话,举手投足间就能将你毁灭。就好像我们在开车时会压死大量的昆虫,可是永远不会有司机去考虑昆虫的感受。

我这种文科生对科学其实一窍不通,跟霍金、盖茨这种大神级人物相比更是微不足道,不过我还是要说,为了我们的子孙后代,最好不要妄想去赋予人工智能以生命,因为你永远无法控制灵魂。

你可能感兴趣的:(上帝与蚂蚁?人工智能必须适可而止)