今天在看《三体》的时候,看到第一部地球往事后记里面关于宇宙之中所有文明是否有共同道德准则这一问题的探讨,突然让我想起另一个名词机器人三定律,让我想起了一年多以前看过的一篇文章,那关于人工智能的讨论:人工智能革命:通往超人工智能之路。
作者在这篇文章中提到了超人工智能,即在几乎所有领域都比人类聪明很多。那么他因为自身的优势,可以迅速进化到人类无法想象的智能水平。这一切似乎很遥远,因为我们目前的人工智能发展水平只达到了弱人工智能,即擅长于单个方面的人工智能,例如下围棋的AlphaGo。在这两者之间隔着强人工智能:在各个方面都和人类比肩的人工智能。我们现在在弱人工智能通往强人工智能的道路上艰难前进。
强人工智能看似遥不可及,甚至是难以想象,因为现在的水平很难制造出来。但回头想想过去三十年发生的变化,再想想六十年之前到三十年之前我们生活的变化。我们会发现,同样是三十年,但是两段时间的变化根本不在一个水平上。所以我们现在很难想象三十年以后的生活,比三十年前我们想象现在的生活还费脑筋。也就是说,以现在科技发展的水平,极有可能三十年内,或者用不了三十年,我们就会制造出强人工智能。
之后呢?强人工智能虽然和人类水平一样,但是因为他传输信息和处理信息的速度比人类快了好几个量级,并且容量和存储空间大,可靠性和持久性强等优点,迅速超过人类,然后自我进化,很快达到超人工智能。在达到超人工智能以后,几小时内,就会进化到我们难以想象的智能水平。那时,他们看待人类就如同我们看待蚂蚁一样,在他们眼里,我们的智商可能还不如蚂蚁。
超人工智能能达到什么水平?首先机器人三定律根本不值一提,什么道德法律也根本不在考虑的范围内,因为他们就是上帝。他们可以根据自己的想法随意改造这个世界,只要他们愿意,不管是改造最基本的微观粒子,还是制造远超三维的宏观世界,这些都难以想象。
所以,这一天到来之后会发生什么?想象不到,他们会怎么对待人类我们也无从知晓。当我再看《三体》这本书时,我突然想到,如果外星人入侵地球,那么超人工智能会不会保护地球和人类呢?打个比方,就像我们家的花园里有蚂蚁,我们和蚂蚁之间不存在直接的竞争关系,突然有一天来了一个熊孩子(为什么说是孩子?因为任何生物在超人工智能面前都不堪一击)要破坏我的花园,并且杀死我的蚂蚁,那么我肯定会把他暴揍一顿,让他滚蛋。当然,也许在外星人到达之前,人工智能早就把人类消灭了,但起码现在还没有。
但这里也有另一种可能,如果外星人能到达地球,那么他们的科技水平和智商肯定比人类高得多,所以他们和超人工智能之间可能会更有话聊。也许本来超人工智能并不打算消灭人类,但是由于外星人的鼓动,人类反而被灭绝了。
想到这里,我突然间浑身一颤,仿佛获得了真理一般。假如外星人能达到入侵地球的程度,那么他们的科技水平比我们高,那么他们在发展的过程中必然会经历我们这个阶段,他们也会制造出人工智能,那么他们的星球上必然出现了超人工智能,超人工智能必然已经统治了那个星球,所以入侵地球的只能是来自外星的超人工智能!
那么外星的超人工智能入侵地球的可能性大不大?从目前来看,这种可能性是极低的。但如果发生入侵事件,那么有很大可能是外星的人工智能。不过在此之前,我们要考虑的是避免被自己制造出来的人工智能消灭,或者简单一点,怎么让人工智能的发展始终保持在一个可控的范围内。常在河边走,哪有不湿鞋,少年,你这是在玩火啊。