霍金的AI简史:人工智能或终结人类历史!

霍金曾说,“在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。”

他说,人工智能的崛起,要么是人类历史上最好的事,要么是人类文明的终结。

担忧人工智能毁灭人类

霍金认为,人脑和电脑没有本质区别。AI遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。霍金说,近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。

他多次提醒人类,要尽量避免人类通过AI建造更高级的武器,助长战争和恐怖主义,加剧世界动荡局势进而摧毁人类。

另一方面,霍金最担心还是人工智能系统失控爆发的潜在风险,人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。到那时,人工智能可能是人类文明史的终结。

他提出,未来“人工智能可能毁掉人类”,人类需要建立有效机制,用逻辑和理性去控制未来可能出现的威胁,防止其威胁进一步上升。

霍金近几年对人工智能十分关注,多次发表对人工智能发展的看法。他与埃隆·马斯克、比尔·盖茨大概是最著名的三个“人工智能威胁论”支持者。

他认为,人类需警惕人工智能的发展威胁,因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类将无法与之竞争,从而被取代。霍金称:AI会给我们的经济带来巨大破坏力,未来,AI会有自己的意志,它的意志可能会与我们的意愿产生冲突。

据Techworld报道,霍金表示:“计算机具备的人工智能将会在未来100年中的某个时点超越人类的智能。当这种情形发生时,我们必须确保计算机是站在人类这边的。”霍金说道:“我们的未来是在日益崛起的科技力量与我们试图掌控它们之间的一场竞赛。”

霍金的人工智能语录简史

霍金多次敬告世人,关注人工智能的深远影响:“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。对于好坏我们仍无法确定,现在人类只能竭尽所能,确保其未来发展对人类和环境有利,人类别无选择。”

2014年霍金接受BBC采访时说:“人工智能的全面发展将宣告人类的灭亡。”

2015年1月份,霍金和埃隆·马斯克,以及许多其他的人工智能专家签署了一份题目为《应优先研究强大而有益的人工智能》的公开信,警告人工智能的军备开发可能会助长战争和恐怖主义,成为人类的灾难。

2016年10月20日,霍金再次警告说,发明AI(人工智能)可能会成为人类历史上最大的灾难,如果管理不善,会思考的机器可能会为文明划上句号。

在12月发表在英国《卫报》的专栏,霍金表示:“工厂的自动化已经让许多传统制造业工人失业了,而人工智能的崛起会将失业范围扩大到社会上的中产阶级。未来,留给人类的只有护理、创新和监督等少数岗位了。”

2017年12月,在长城会举办的“天工开悟,智行未来”的活动上,霍金再次表达了对人工智能无限制发展的隐忧,这也是他最后一次在中国的活动中露面,也是他对人工智能的最后一次公开警告。

“人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。”霍金表示。

“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非,人工智能系统需要按照人类的意志工作。”

霍金建议:跨学科(STEM)

2016年10月,剑桥大学未来智力研究中心的启用仪式上,他缓和了对人工智能的态度,但并没有改变基本观点。“对人类而言,强大的人工智能技术的崛起可谓‘不成功,则成仁’。”

但对于结果如何,他目前也不确定。霍金认为,人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

霍金呼吁,人工智能的研究与开发正在迅速推进,但所有人都应该暂停片刻,把我们的研究从提升人工智能能力转移到最大化人工智能的社会效益上面。

霍金同时提出,跨学科研究是人工智能一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

他认为,有益的人工智能将出现在人类生活的各方面。

“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!”霍金说,“我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”

无论如何,即使是对人工智能最悲观的科学家,也仍在学习和研究人工智能的开发和应用,这是一股不可逆转的潮流,也是人类发展的源动力。

华工启明星相信,虽然未来存在诸多不确定性,但有一点可以确定,我们已经进入人工智能时代了。

你可能感兴趣的:(霍金的AI简史:人工智能或终结人类历史!)