霍金再提AI终结人类

新一期的《奇葩说》辩题是高等生物的蛋该不该毁灭?“该”的正方从风险控制的角度出发,“不该”的反方从人类的好奇心出发,互相厮杀,脑洞大开,十分精彩。你可能觉得这种事情,离我们还很遥远,其实则不然,人工智能AI如果高速的发展下去,很可能有一天就成为超越人类的高等生物。

4月27日,现代最伟大的物理学家之一霍金在2017全球移动互联网大会上发表了演讲,主题是《人工智能造福人类及其赖以生存的家园》。说到,他一生见证了社会深刻的变化,其中最深刻的,同时也是对人类影响与日俱增的,就是人工智能的崛起。推测,人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。到底是好是坏,霍金认为现在还不能确定。

好的方面,霍金认为创造智能,可以为人类带来巨大的潜在收益:“我内心秉持乐观态度,也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。”

人工智能中的语音识别、图像分类、自动驾驶、机器翻译、医疗诊断等等都是成功的案例。随着这些领域的发展,从实验室研究到有经济价值的技术,就可以逐渐形成良性循环。哪怕是很小的性能改进,都会带来巨大的经济效益。

坏的方面,霍金对科学家乃至整个人类提出了严正警告:“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。”

霍金提出人工智能无论如何了不起,都必须遵守一条规则:按照人类的意志去工作,强调我们必须找到“掌控风险的工具”。

比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能才行。所以,我们要竭尽所能,确保人工智能的未来发展对我们是有利的。霍金说,也许我们所有人都应该先停一停,把研究从提升人工智能能力转移到最大化人工智能的社会效益上面。

从目前的经济规律来看,追求多高的收益,就代表相应要承担着多高的风险。

创新工场的CEO李开复问霍金:“互联网巨头拥有巨量的数据,而这些数据会给他们各种以用户隐私和利益换取暴利的机会。在巨大的利益诱惑下,他们是无法自律的。而且,这种行为也会导致小公司和创业者更难创新。您常谈到如何约束人工智能,但更难的是如何约束人本身。您认为我们应该如何约束这些巨头?”

霍金回答说:“据我了解,许多公司只是将这些数据用于统计分析,但任何涉及到私人信息的使用都应该被禁止。如果互联网上所有的信息,都是通过基于量子技术加密过的,互联网公司在一定时间内就无法破解,这样会有助于隐私保护,但安全服务会反对这个做法。”

回答《奇葩说》罗振宇的辩论中,罗胖认为在没有找到掌控风险的工具之前,先把高等生物蛋毁灭掉再说。但是人工智能的发展,在人类没有切实的体会到和确切的看到风险之前,人类不会停止对它的探索,而且它自己也不会停止下来,人工智能的深度学习系统,使它每天都在进步。

人工智能真的能终结人类吗?

对人工智能抱有乐观态度的人,认为AI能够进一步把人类解放出来,然后就可以做自己想做的事情了,但是人类必须意识到,人类需要找到有用的事情可做,因为无用的东西会自然的消亡。人类提出了一千种人工智能不会取代人类的理由,最可怕的是这一千种理由都是通过人类的思维设想出来的。而人工智能的思维方式很可能恰巧不在这些理由里。

也许天网的觉醒和《西部世界》那样的“人工智能系统时空的潜在风险”,这些人类能够想到的风险,可能都已经不算是风险,真正的风险来自于无法预测。

斯蒂芬.霍金和天才发明家Elon Musk 很早就担心,创造聪明绝顶的人工智能是个错误,因而探究更多智能种类显得更为明智。所以马斯克就去探索火星移民计划了,可笑的是去火星可能也得需要人工智能的帮助,这并不能消除人工智能威胁。

如果没有人工智能,人类也许会面临其他的生存威胁,除了人类自身造成的生存危机,也许还有同其他智能生物争夺宇宙资源的危机,人类消亡似乎成了命运的安排,但是人类未来能够孵化出什么样的新生命形态,同样是一个未知数,最终是不是被AI终结,无所谓!

你可能感兴趣的:(霍金再提AI终结人类)