人工智能会毁灭人类么?41/71天写作

斯蒂芬霍金出生在1942年,已经76岁了。他得了一种肌肉萎缩症,全身上下只有三根手指能动。但正是这个人被公认为爱因斯坦后最伟大的物理学家,他像上帝一样思考。

既然霍金那么厉害为什么没有得过诺贝尔奖呢?因为诺贝尔奖的评审规则是,理论必须要被实验验证,而霍金的黑洞理论到今天还是一个假设。

霍金在全球移动互联网大会上提出一个观点,认为人工智能有可能毁灭人类。在霍金看来文明所孕育的一切,都是人类智能的产物。从国际象棋人机大战的结果来看,生物大脑的智能机器都能达到,没有本质的区别。因此遵循了计算机在理论上可以模仿人脑智能然后超载的原理。人工智能一旦脱离束缚,以加速的状态不断进化的时候,而人类受到长期进化的限制将无法与之竞争。

从霍金的言论中,他对人工智能的担忧非常类似于1940年的爱因斯坦对核科学研究的担忧,即科学家通过不懈努力生产出了一种足以毁灭人类的武器。霍金在演讲中担忧,如果未来人类生产出一种致命性的智能自主武器,那么它是否应该被禁止,如果是的话,自主应该被如何精确的定义呢?如果否的话,任何使用不当和故障的过失应该如何问责呢?另外一个担忧是人工智能可以解读大量的监控数据,因此会引起种种关于隐私的担忧,而从长期来看,最可怕的一个潜在威胁是,人工智能失控的潜在风险随着不遵循人类意志的超级智能的诞生,那种强大的系统将可能威胁到人类,所以霍金说人工智能的成功有可能是人类文明史上最大的事件,但是人工智能也有可能是人类文明史的终结。

这些年,霍金作为人类最聪明的大脑,对人类的未来充满了种种担忧,在2011年时,曾警告人类将在200年内毁灭,所以移民外星是唯一的选择。而在今天又对人工智能的潜在危险提出了警告。

早在10年前,美国预言家曾提出过“奇点”理论,认为到2045年时,计算机的智能将超载人类智慧,那就是所谓奇点来临的时刻。而霍金的言论就是对奇点到来的乐观展望和悲观警告。

在未来的30年内人类有可能在意志的意义上实现永生,但同时人工智能有可能超载人类的智慧,甚至替代人类对地球的统治,一切都好像在黑暗中,黎明一定会到来,当黎明到来时,不知道会看到怎样的景象。

你可能感兴趣的:(人工智能会毁灭人类么?41/71天写作)