人类将永生,或者灭绝?附:WE大会霍金的回答

人类将永生,或者灭绝?附:WE大会霍金的回答

一时Oneday2017-11-07 10:08

人类将永生,或者灭绝?附:WE大会霍金的回答_第1张图片

昨晚,我们的沙发观影会,放映了35年前的《银翼杀手》。恰好昨天也举行了腾讯WE大会,霍金、ASA中心主任等科学家聊了聊人类的未来——具体聊了些啥呢?

其实和我们昨天看的电影很相似。

在不久之后,人类进入太空时代,一部分人类离开地球去往外太空生活,其中也包含了复制人,用于从事危险的勘探和殖民等工作。所谓复制人,是制造成人类的形体,并且拥有人类智慧——也就是当下最热门的人工智能的高级版。

人类将永生,或者灭绝?附:WE大会霍金的回答_第2张图片


电影中,负责追杀复制人的德克,

与复制人瑞秋产生了感情。

两个人的眼神和肢体动作,

将复制人和人类的那种同与不同表现得微妙之极。

沙发前则摆着大家带来的各种吃食

复制人会产生自己的意识,情感,行为,从而发生不可预测的后果。这在电影中是构想,但是在现实中,仍旧是一桩悬案。所以,包括霍金、乔布斯等人会觉得,人工智能很可能导致人类的永生,或者灭绝,而这一切很可能在我们的有生之年发生。 

01永生:死亡不一定是不可避免的

有科学家曾经说过这样一段话:

在所有的生物科学中,没有任何证据说明死亡是必需的。如果你说你想造永动机,那我们对于物理学的研究已经让我们有足够的理论来说明这是不可能的。但是在生物领域我们还没发现任何证据证明死亡是不可避免的。也就是说死亡不一定是不可避免的,生物学家早晚会发现造成我们死亡的原因是什么,而死亡这个糟糕的‘病’就会被治好,而人类的身体也将不再只是个暂时的容器。

不过,我们真的需要永生吗?

我想大部分人类并不需要。比起永生,如何让有限的生命和生活更加美好,才是他们所在意的。


02
灭绝:人工智能将导致人类灭绝

几十年来,科学家们一直都在担忧:人工智能可能会超越人类智力范围,进而挑战人机关系。实际上从去年AlphaGo开始,人工智能远胜人类的声音已经越来越多。等到今年AlphaGo Zero的诞生,更是让人震撼。

为什么震撼呢?科学期刊上的一个标题可以说明:

人类花了大量时间和资金,研发的AlphaGo,被AlphaGo Zero自学三天后,以100:0完胜。

这样一件事能说明什么呢?说明了机器可以脱离人类智慧,发现并学习新知识。机器将不再受人类控制,他们的智慧也将不再由人类的智慧产生。也就是说,人工智能,不再人工,而渐渐转向独立了。

科幻电影里的情节正在慢慢变为现实。而多数人类还未能察觉:在这个年代,人类创造的一切,很可能AI将取代我们进行创造。换个说法就是,这也许是人类能在这个世界产生影响和文明的最后的年代。

到那时,人类和AI、复制人,或者说自我命名的它们,该如何相处呢?

人类将永生,或者灭绝?附:WE大会霍金的回答_第3张图片

电影《银翼杀手》中,被击毙的复制人。

这一段堪称影史经典,画面光影如诗如画,

音乐和镜头的处理,结合情节,

让人感受到了一种宏大却又真实的同情与绝望:

复制人的命运如此,人类自己的命运又将如何呢?

霍金认为:人工智能有可能是人类文明史的终结,除非我们学会如何避免危险。人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。

不过,大部分人对人工智能并没有持悲观态度和危险预警。如雨果奖作者郝景芳所说:人工智能对我们最大的威胁在于,当我们过于依赖很多的数据系统以后,我们自己如果变得懒于思考、懒于自我反思,而让我们自己的智慧退化。这是对人类最大的威胁。

科学家Kurzweil则认为,人类会完全变成人工的。

仔细想一下,我们现在的生活,是不是变得越来越人工和公式,而渐渐地脱离了人类的某种本心了呢?

03腾讯WE大会霍金答问

Q:

创新工场CEO李开复:互联网巨头拥有巨量的数据,而这些数据会给他们各种以用户隐私和利益换取暴利的机会。在巨大的利益诱惑下,他们是无法自律的。而且,这种行为也会导致小公司和创业者更难创新。您常谈到如何约束人工智能,但更难的是如何约束人本身。您认为我们应该如何约束这些巨头?

A:

霍金:据我了解,许多公司仅将这些数据用于统计分析,但任何涉及到私人信息的使用都应该被禁止。会有助于隐私保护的是,如果互联网上所有的信息,均通过基于量子技术加密,这样互联网公司在一定时间内便无法破解。但安全服务会反对这个做法。

Q:

猎豹移动 CEO 傅盛:灵魂会不会是量子的一种存在形态?或者是高维空间里的另一个表现?

A:

霍金:我认为近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。这点上我和我的同事罗杰·彭罗斯正好相反。会有人认为电脑有灵魂吗?对我而言,灵魂这个说法是一个基督教的概念,它和来世联系在一起。我认为这是一个童话故事。

Q:

百度总裁张亚勤:人类观察和抽象世界的方式不断演进,从早期的观察和估算,到牛顿定律和爱因斯坦方程式,到今天数据驱动的计算和人工智能,下一个是什么?

A:

霍金:我们需要一个新的量子理论,将重力和其他自然界的其它力量整合在一起。许多人声称这是弦理论,但我对此表示怀疑,目前唯一的推测是,时空有十个维度。


人类将永生,或者灭绝?附:WE大会霍金的回答_第4张图片
弦论中的空间状态


Q:

斯坦福大学物理学教授张首晟:如果让你告诉外星人我们人类取得的最高成就,写在一张明信片的背面,您会写什么?

A:

霍金:告诉外星人关于美,或者任何可能代表最高艺术成就的艺术形式都是无益的,因为这是人类特有的。我会告诉他们哥德尔不完备定理和费马大定理。这才是外星人能够理解的事情。

人类将永生,或者灭绝?附:WE大会霍金的回答_第5张图片
哥德尔:人类史上最重要的人之一,爱因斯坦的终生挚友


Q:

长城会:我们希望提倡科学精神,贯穿GMIC全球九站,请您推荐三本书,让科技届的朋友们更好地理解科学及科学的未来。

A:

霍金:他们应该去写书而不是读书。只有当一个人关于某件事能写出一本书,才代表他完全理解了这件事。

Q:

网民:您认为一个人一生中最应当做的一件事和最不应当做的一件事是什么?

A:

霍金:我们绝不应当放弃,我们都应当尽可能多的去理解(这个世界)。 

人类将永生,或者灭绝?附:WE大会霍金的回答_第6张图片
马头星云


Q:

网民:人类在漫漫的历史长河中,重复着一次又一次的革命与运动。从石器、蒸汽、电气……您认为下一次的革命会是由什么驱动的?

A:

霍金:(我认为是)计算机科学的发展,包括人工智能和量子计算。科技已经成为我们生活中重要的一部分,但未来几十年里,它会逐渐渗透到社会的每一个方面,为我们提供智能的支持和建议,在医疗、工作、教育和科技等众多领域。但是我们必须要确保是我们来掌控人工智能,而非它(掌控)我们。

Q:

音乐人、投资者胡海泉:如果星际移民技术的成熟窗口期迟到,有没有完全解决不了的内发灾难导致人类灭绝?抛开陨星撞地球这样的外来灾难。

A:

霍金:是的。人口过剩、疾病、战争、饥荒、气候变化和水资源匮乏, 人类有能力解决这些危机。但很可惜,这些危机还严重威胁着我们在地球上的生存,这些危机都是可以解决的,但目前还没有。

人类将永生,或者灭绝?附:WE大会霍金的回答_第7张图片
《银翼杀手》剧照


正如《银翼杀手》中所展示的那样,在未来,人类世界并没有变得更好,而是变得灰暗,破败。这是人类不得不警惕和反思的地方。

最后,用霍金的那句话来作为结语吧!

记住要仰望星空,不要低头看脚下。无论生活如何艰难,请保持一颗好奇心。

——斯蒂芬·威廉·霍金(Stephen William Hawking)教授 

人类将永生,或者灭绝?附:WE大会霍金的回答_第8张图片


欢迎参加一时下一次的沙发观影会

想看什么影片也可以告诉我们

另,由于现场的一些原因

向我们到场的观众们表示歉意和感激


「一时」是一个生活群体

它可以是随意而自由,也可以是充满仪式感

取决于我们对待自己的每一时刻的态度

你可能感兴趣的:(人类将永生,或者灭绝?附:WE大会霍金的回答)