AI的25种可能,就是人类的25种未来

点击笔记侠关注△ 回复“1”领取100套知识卡片大礼包

AI的25种可能,就是人类的25种未来_第1张图片

AI的25种可能,就是人类的25种未来_第2张图片


内容来源:本文摘编湛庐文化出品书籍《AI的25种可能》书评文章,本书作者约翰.布罗克曼(John Brockman),笔记侠经出版社授权发布。


封面设计 & 责编| 丽丽 第 4287篇深度好文: 5133字| 8分钟阅读

读书笔记人工智能


本文优质度:★★★+ 口感:蔓越莓


笔记君说:


世界上最聪明的网站Edge,每年一次,让100位全球最伟大的头脑坐在同一张桌子旁,共同解答关乎人类命运的同一个大问题,开启一场智识的探险,一次思想的旅行!


人工智能是今天的神话,也是其他一切故事背后的故事。本书集结了诸多来自人工智能领域内外的重要思想家的对话,探讨了人工智能的定义及含义。


以下,enjoy~~

世界上最聪明的网站Edge,每年一次,让几十位全球最伟大的头脑坐在同一张桌子旁,共同解答关乎人类命运的同一个大问题,开启一场智识的探险,一次思想的旅行!


这次,25位顶尖思想家们将话题聚焦到了人工智能,他们的思想集结成了《AI的25种可能》一书。

《AI的25种可能》集结了包括史蒂芬·平克、朱迪亚·珀尔、丹尼尔·丹尼特、迈克斯·泰格马克等25位计算机科学家、心理学家、物理学家、科技史学家的前沿洞见,AI的25种可能,就是人类未来的25种可能。

一、 朱迪亚·珀尔 不透明学习机器的局限性


当前的机器学习系统几乎完全在统计模式或者说模型盲(model-blind)的模式下运行,这在许多方面类似于将函数拟合到大量点数据。


这样的系统不能推理“如果……会怎样?”的问题,因此不能作为强人工智能的基础,强人工智能是模拟人类推理和能力的人工智能。


为了达到人类智能水平,学习机器需要现实蓝图的指导,这种蓝图是一个模型,类似于当我们在陌生城市开车时给我们指路的道路地图。

我认为机器学习是一种工具,使我们从研究数据走到研究概率。但是,从概率到实际理解,我们仍然需要多迈出两步,非常大的两步。

一是预测行动的结果。
第一层是统计推理。 统计推理能告诉你的,只是你看到的一件事如何改变你对另一件事的看法。 例如,某症状能告诉你得了哪一种疾病。 然后,是第二层。 第二层包含了第一层,但第一层却不包含第二层。
第二层处理的是行动。 “如果我们抬高价格会怎样? ”“如果你让我笑了,会怎样? ”第二层需要的是干预信息,这些信息是第一层所没有的。 这些信息可被编码成概率图模型,它仅仅告诉我们哪个变量对另一个变量有响应。


二是反事实想象。
“如果这个东西重两倍,会怎样? ”“如果当初我没有这样做,会怎样? ”“治好了我头疼的是阿司匹林还是刚刚打的盹? ”反事实在感觉中属于最高层次,即使我们能够预测所有行动的结果,但却无法得到反事实。
它们需要一种额外的东西,以等式的形式告诉我们对于其他变量发生的变化,某个变量会如何反应。

因果推理研究的一个突出成就是对干预和反事实的算法化,也就是对层级结构最高两层的算法化。


当我思考机器学习的成功并试图把它推广到未来的人工智能时,我问自己:“我们是否意识到了在因果推理领域中发现的基本局限性?我们准备绕过阻碍我们从一个层级升到另一个层级的理论障碍吗?

所以我认为,数据科学只是一门有助于解释数据的科学,而解释数据是一个两体问题,将数据与现实联系起来。


但无论数据有多“大”,人们操控数据多么熟练,数据本身并不是一门科学。不透明的学习系统可能会把我们带到巴比伦,但绝不是雅典。

二、 史蒂芬·平克 在不理智的头脑想象区,总是很容易想象出灾难场景


今天许多科技预言的一个焦点是人工智能,在原始的反乌托邦科幻作品中,计算机疯狂地运行并奴役人类,人类无法阻挡它们的控制;


而在更新的版本中,它们偶然地征服了人类,一心一意地寻求我们赋予的目标,尽管会对人类福祉产生副作用。

无论是在哪个版本中,人工智能都是焦点。


不过,我还是觉得这两种威胁都是虚构的,因为它源于一种狭隘的技术决定论,这种技术决定论忽略了在像计算机或大脑这样的智能系统以及整个社会中的信息和控制网络。

AI的25种可能,就是人类的25种未来_第3张图片

这种对征服的恐惧来自对智能的模糊理解,其模糊之处在于将智能归于一种存在之链和尼采式的权力意志,而不是根据信息、计算和控制对智能和目的进行的维纳式分析。


在这些恐怖场景中,智能被描绘成一种全能的、能实现愿望的神药,智能主体各自拥有不同数量的这种神药。


人类比动物拥有更多的神药,而人工智能的计算机或机器人比人类拥有的更多。


既然我们人类曾用我们不高不低的智能驯养或消灭了那些不太有智能的动物,既然技术先进的社会奴役或消灭了技术水平很低的社会,那么超级聪明的人工智能也会对我们人类做同样的事情。

但是这些场景混淆了智能与动机、信念与欲望、推理与目标、图灵阐明的计算和维纳阐明的控制。


即使我们发明了超人智能机器人,他们为什么要奴役他们的主人或接管世界?智能是指运用新的手段达到目标的能力。但是这些目标与智能无关,因为聪明并不等同于一定要追求某些东西。

巧合的是,智人的智能是达尔文自然选择的产物,而自然选择本质上是一个竞争过程。


AI的25种可能,就是人类的25种未来_第4张图片


在智人的大脑中,推理与一些诸如支配对手和积累资源等目标捆绑在一起。


但是,把某些灵长类动物的边缘脑中的回路与智能的本质混为一谈是错误的。没有任何一个复杂系统定律表明,智能主体一定会变成无情的自大狂。

三、 迈克斯·泰格马克

通用人工智能的真正风险不是它的恶意,而是它的能力

许多思想家把超级智能这个概念贬低为科幻小说,因为他们认为智能是一种神秘的东西,只能存在于生物有机体,尤其是人类中,他们还认为这种智能从根本上限制了今天的人类能做什么。

但是,从我作为物理学家的角度来看,智能只是由四处移动的基本粒子所进行的某种信息处理,没有任何物理定律表明人类不能制造出在任何方面都比我们具有更高级智能的机器,这种机器能孕育宇宙生命。


这表明,我们仅仅看到了智能的冰山一角,存在这么一种惊人的可能性:


也许我们能释放出自然界中所蕴藏的全部智能,利用它来帮助人类繁荣发展,或挣扎求生。

真正的问题是,人工智能安全研究必须在严格的期限内进行: 在通用人工智能到来之前,我们需要弄清楚如何让人工智能理解、采纳和保留我们的目标。
机器越智能、越强大,使它们的目标与我们的目标一致就越重要。
只要我们制造的机器相对愚蠢,那么问题便不是人类的目标是否会占上风,而是在达到我们与机器目标一致之前,机器会造成多少麻烦。
然而,如果制造出超级智能,那么情况就会反过来: 因为智能就是实现目标的能力,所以超级智能人工智能从定义上来说,比起我们人类实现自己的目标,它更擅长完成它的目标,因此会占上风。

换句话说,通用人工智能的真正风险不是它的恶意,而是它的能力。


一个拥有超级智能的通用人工智能将非常擅长完成它的目标,如果这些目标与我们人类的不一致,我们就有麻烦了。


为修建水力发电大坝需要淹没蚁丘,对这件事,人类不会反复三思,所以我们不要把人类置于蚂蚁的位置。


大多数研究人员认为,如果我们最终创造了超级智能,我们应该确保它是人工智能安全先驱埃利泽·尤德考斯基所称的“友好的人工智能”,其目标在某种深层意义上是有益的。

四、 塞思·劳埃德

虽然AI有了长足的发展,但机器人“还是不会系鞋带”


我们不应该完全相信技术奇点一说,预测技术进步的常见困难以及发展超级智能时特有的问题都应该让我们警惕,不要高估信息处理的力量和效能。

没有任何一种指数式增长能一直持续下去。原子弹爆炸呈指数式增长,但也就持续到燃料耗尽之时。


同样地,摩尔定律的指数式增长近来开始进入基础物理所设定的极限之中。


计算机的时钟速度在 15 年前不超过几千兆赫,仅仅是因为速度再高芯片就开始热得熔化了。


由于隧道效应和电流泄漏,晶体管的小型化已经进入量子力学领域。


最终,摩尔定律驱动的各种存储器和处理器的指数式增长都将停止。然而,再过几十年,计算机的原始信息处理能力也许就能与人类的大脑匹敌,至少按照每秒处理的比特率和位翻转粗略计算的话是如此。

人类的大脑构造复杂,经过几百万年的自然选择变成了现在的样子。 越来越敏感的仪器和成像技术表明,我们的大脑在结构和功能上远比维纳所能想象的更多样、更复杂。
最近,我问现代神经科学先驱托马索·波焦 (Tomaso Poggio) ,是否担心随着计算机处理能力的快速提高,计算机将很快赶上人类的脑。 “绝不可能。 ”他回答。


对奇点主义的恐惧,主要是担心随着计算机更多地参与设计它们自己的软件,它们将迅速拥有超人的计算能力。


但机器学习的真实情况却恰恰相反。当机器的学习能力变得越来越强时,它们的学习方式会变得越来越像人类。


许多事例表明,机器的学习是在人类和机器老师的监管下进行的。对计算机进行教育就像对青少年进行教育一样困难、缓慢。

因此,基于深度学习的计算机系统正在变得越来越人性化。它们带来的学习技能不是“优于”而是“补充”人类学习:计算机学习系统可以识别人类无法识别的模式,反之亦然。


世界上最好的国际象棋棋手既不是计算机,也不是人类,而是与计算机合作的人。


AI的25种可能,就是人类的25种未来_第5张图片


网络空间里确实存在有害的程序,但这些主要是恶意软件,即病毒,它们不是因为其超级智能而为世人所知,而是因为恶意的无知而遭世人谴责。


五、 我们缺少的是人类的良好模型,

机器学习的关键必然是人类的学习

价值对齐,就是使自动化智能系统的价值与人的价值对齐。在人工智能研究中,价值对齐只是一个小的主题,但对它的研究日渐增加。用于解决这个问题的一个工具就是反向强化学习。

强化学习是训练智能机器的一种标准方法。通过将特定的结果和奖励联系起来,可以训练机器学习系统遵循产生特定结果的策略。


现代机器学习系统可以通过应用强化学习算法找到非常有效的策略来玩电脑游戏,从简单的街机游戏到复杂的实时策略游戏。


反向强化学习扭转了这种途径:通过观察已经学习了有效策略的智能主体的行为,我们可以推断导致这些策略发展的奖励。

AI的25种可能,就是人类的25种未来_第6张图片

最终,我们需要的是一种方法,它能描述人类思维的运作原理,具有理性的普遍性和启发式的准确性。


实现这一目标的一种方法是从合理性开始,考虑如何让它朝现实的方向发展。

把合理性作为描述任何现实世界行为的基础,这就存在一个问题,那就是,在许多情况下,计算合理行为需要主体拥有大量的计算资源。


如果你正在做出一个非常重要的决定,并且有很多时间来评估你的选择,那么花费这些资源也许是值得的,但是人类的大多数决定都是快速做出的,而且风险相对较低。


无论在什么情况下,只要你做出决定花费的时间成本很昂贵(至少因为你可以把这些时间花在别的事情上),理性的经典概念就不再能很好地描述一个人该如何行事。

超级智能人工智能还有很长的路要走。在过去几年里,对视觉和语言的模型开发已经创造出了用于解释图像和文本的重要的商业新技术,而人类仍然是我们在制造思考机器时要参考的最好例子,所以我认为开发良好的人类模型将是下一个研究领域。

六、 丹尼尔·希利斯

超级智能不仅仅包括人类,它们是人类和信息技术的混合体


今天,如果没有计算机网络、数据库和决策支持系统,所有的系统都无法运作。


这些混合智能是技术增强的人类网络。这些人工智能具有超人的能力。它们比人类个体懂得更多;它们能够感知更多;


它们能够做出更精细的分析和更复杂的计划。它们拥有的资源和力量比任何个人拥有的都要多。

AI的25种可能,就是人类的25种未来_第7张图片

虽然我们并不总能察觉到,但是诸如民族国家和企业这样的混合型超级智能有它们自己的涌现目标。


虽然它们是由人类建造的,也是服务于人类的,但它们的行为却常常像独立的智能实体一样,而且它们的行为并不总是与创造它们的人的利益相一致。

国家并不总是为公民服务,公司也不总是为股东服务。 非营利组织、宗教组织或政党也不总是遵循其原则而行动。
直觉上,我们意识到它们的行为受其内部目标的引导,这就是为什么我们在法律上和思维习惯上都把它们人格化。
当我们谈论“中国想要什么”或“通用汽车正在做什么”时,我们并不是在隐喻。 这些组织有智能,它们能感知、能做出决定、能采取行动。
和人类个体的目标一样,组织的目标也很复杂,常常还自相矛盾,但它们的目标是真正的目标,因为这些目标能指导行动。
这些目标在某种程度上取决于组织中人员的目标,但两者并不相同。

政府和公司,两者结构中都有一部分是由人类建立的,两者都会自然而然受到人类的激励,至少会表现出与它们所依赖的人类有共同的目标。


离开人类,它们都无法运转,所以它们需要与人类合作。当这些组织表现出利他行为时,通常这就是它们的一部分动机。


总之,这些混合机器有目标,它们的公民、客户、雇员是它们用来实现目标的资源。我们几乎能够不用人类组件,只用纯信息技术构建超级智能。这就是人们通常所说的人工智能。



*文章为讲者独立观点,不代表笔记侠立场。



精彩活动推荐

AI的25种可能,就是人类的25种未来_第8张图片

你可能感兴趣的:(AI的25种可能,就是人类的25种未来)