人工智能预测之七宗罪

640?wx_fmt=png&wxfrom=5&wx_lazy=1

译者:李凌

概要:一些有关人工智能和机器人未来发展的事情疯狂地将我们包围——人们对未来人工智能和机器人会变得如何强大、发展的如何快以及对我们工作产生的影响充满担忧。


错误的推断,有限的想象力和其他一些常见错误,会影响我们对未来的思考。


一些有关人工智能和机器人未来发展的事情疯狂地将我们包围——人们对未来人工智能和机器人会变得如何强大、发展的如何快以及对我们工作产生的影响充满担忧。


最近我在MarketWatch上看到了一个故事,说在未来的10到20年间,机器人将取代人们一半的工作岗位。这个故事甚至用了一个图表来证明他们的数据。


这些说法是荒谬的。例如,由于机器人将接手部分工作,在10到20年内,美国近一百万平方公里土地上的维修工人将减少到5万人。然而现在投入使用的机器人又有多少呢?零。 机器人在现实舞台中又露过几次面呢?零。诸如此类。这样的故事也同样适用于人们提到的其他所有情况,例如,有人说90%以上的工作将走向终结,这些实际存在的工作一般都有着特定的工作地点。


对那些根本不会发生的事情的错误预测,会让我们感到恐惧,无论是机器人在大范围内取代了人类的工作岗位,还是技术奇点和人工智能的出现,都与我们价值观截然不同,并且这些事物的出现很可能会摧毁我们的正常生活。我们要避免预测错误。但是为什么人们依旧会产生这些错误的预测呢? 以下,是我发现的七个常见的原因。 


0?wx_fmt=png


1.高估和低估


Roy Amara是未来研究所的共同创始人,未来研究所位于硅谷的智慧中心Palo Alto。 他因他提出的阿玛拉定律而著名:


我们总是高估一项科技所带来的短期效益,却又低估它的长期影响。这短短几个词中有着许多种含义。一个乐观主义者可以读出一种意思,而一个悲观主义者可以读出另一种不同的含义。


有一个关于阿玛拉定律的典型例子,美国全球定位系统。从1978年开始,美国将一颗24颗卫星(现为31颗,包括其备件)发射到既定轨道上。美国全球定位系统旨在使美军精准发射弹药。但20世纪80年代差点取消了这个计划。在1991年沙漠风暴期间,美国全球定位系统被首次使用,帮助军方获得了好几次胜利,大家对这个系统越发认可。如今,全球定位系统的发展证明了阿玛拉定律中的后半句话——“人们总是低估它的长期影响”,最开始在研发全球定位系统时,并没有现今的这些用途。我的Apple Watch Series 2 在运行时开启了GPS,就能够准确定位、记录我的跑步轨迹。


对于早期的GPS工程师来说,Apple Watch Series 2的小体积和低价格简直就让人难以相信。全球的物理实验中也运用了GPS,在同步美国电网、保持电网稳定运行方面GPS也发挥了重要作用。它甚至能够让大多数实际掌控着股市的高频交易者们避免灾难性的定时误差。 所有的飞机都在用GPS导航,或是用GPS跟踪那些因假释而出狱的人。GPS可以决定哪些种子的变种将种在哪里,也可以跟踪车队中的每一台车,并报告驾驶员的状态。


由于一个单纯的目的,研发了GPS,但是我们很难让它按照我们所设想的预期工作。现在,GPS已经渗透到我们生活的各个方面,如果没有了它,我们不仅仅会走丢; 我们还会饥寒交迫、甚至可能会死掉。


过去30年,我们见证了其他类似的技术模式,它们本身拥有着广阔的发展前景,但人们往往会低估它的长远影响,结果随着这些技术的不断发展,人们逐渐又恢复了自信,最终这些技术的发展超出了他们的期望。 这就是发生在计算、基因组测序、太阳能发电、风力发电、甚至是家庭送货技术中的真实情况。


20世纪60年代到80年代,人们一再高估了人工智能的作用,然而,现在我有理由再次相信,人工智能的长远影响也有可能被低估了。但在这中间存在着一个问题:长远究竟是指的多久? 接下来的六个常见错误有助于解释为什么人们大大低估了未来人工智能的发展时间。为什么人工智能的未来发展中“未来”一词的时间范畴被大大低估了。


0?wx_fmt=png


2.想象的魔力


当我还是个十几岁的孩子时,Arthur C. Clarke和Robert Heinlein、Isaac Asimov并称为“三大”科幻作家。但Clarke还是发明家、科学作家、未来主义者。在1962年至1973年间,他提出了三句格言,又被称为克拉克三定律:


如果一个年高德劭的杰出科学家说,某件事情是可能的,那他可能是正确的;但如果他说,某件事情是不可能的,那他也许是错的;


要发现某件事情是否可能的界限,唯一的途径是跨越这个界限,从不可能跑到可能中去;


任何非常先进的技术,初看都与魔法无异。


就个人而言,我应该更加关注定律一中的第二句话,并时刻警惕,因为我比其他人更加保守,我认为人工智能的发展速度并不会很快。但是现在我想阐述的是克拉克第三定律。


想象一下,如果我们有一台时间机器,我们就可以把牛顿从17世纪晚期传送到今天来,然后把他放在一个他熟悉的地方:剑桥大学三一学院的教堂。


现在,给牛顿一个苹果。 然后从你的口袋里拿出一台iPhone,在打开iPhone并让它呈现出充满图标的明亮界面之后,将这台iPhone交给牛顿。牛顿曾向我们证明了白光是由不同颜色的光线组成的,他用棱镜将阳光分开,然后再把阳光聚到一起,让人感到十分惊奇的是,棱镜这个小物体在教堂的黑暗处竟产生如此动人的色彩。


现在,播放一个有关英国乡村景色的视频,然后给他听一些教堂音乐。再向牛顿展示一个网页,里面包含了500多页有关他伟大理论的个人注释本(副本),然后教他如何使用手势来放大文章中的细节。


牛顿能为我们解释这个小装置是怎样完成这些操作的吗?虽然他发明了微积分,并对光学和重力的相关内容进行了解释,但他从来没有对炼金术中的化学知识进行梳理。所以我认为他可能也会有些困惑,无法解释这些装置是如何运行的。这个神秘的事物对他来说没有什么不同——但是非常有意义。牛顿也许无法将这些技术与魔法区分开来。要知道,牛顿是一个非常聪明的家伙。


如果是魔法的话,我们就很难知道它的局限在哪儿。 假设我们进一步向牛顿展示如何使用iPhone照明、拍摄照片、放映电影并记录声音,展示如何将iPhone作为放大镜和镜子使用。然后再向他展示如何以超快速度和进行多小数位的计算。我们向牛顿展示iPhone自带的计算步骤,并告诉他,他可以就在三一学院的教堂里和世界各地的人聊天。


牛顿会如何猜测这些设备的功能呢?棱镜永远都在工作。他会猜想iPhone也会像棱镜一样一直的工作下去吗?他会不会忽略iPhone需要充电这一点?回想一下,在迈克尔•法拉第诞生之前,牛顿就已经去世了,所以他缺乏对电力的科学认识。如果iPhone可以是无火之光,那么它是否也可以将铅变成黄金呢?


这是我们在幻想未来技术的过程中都会遇到的一个问题。如果未来的技术远远超出我们现今的理解范围,那么我们就无法得知它的局限性。如果未来的技术无法与魔法区分开来,那么有关这些技术的对错我们都无法检验。


我经常会和人们争论,我们是否应该对强人工智能的出现感到恐慌,强人工智能(AGI)认为我们将建立一种与人类行为及其相似的自动化的个体。他们告诉我,我对AGI的力量还一无所知。但是这并不是一个好的论据。我们甚至不知道AGI是否可以真正存在。我希望它是存在的——这是我一直工作在机器人和人工智能领域的动力所在。但是,无论是作为一个普遍的应用和一个会长期存在的独立实体,当今社会的AGI研究做得都不算好。很有可能是因为我们在同一件事情上一直坚持着同一种看法,所以导致人工智能的问题至少已经存在了50年。所有的证据都表明,到目前为止,对于建立一个人工智能,我们还没有形成一个确切的想法。它的属性是完全未知的,所以夸张点说的话,人工智能就变得十分神奇了,强大的宇宙是无穷无尽的。


注意有关未来技术的论据,这些论据都十分神奇,人们永远不会推翻这样的论据。但这只是一个基于信仰的论据,而不是严谨科学论证。 


0?wx_fmt=png

3. 性能VS能力


我们都会根据人们执行某些特定任务中的表现来判断他们是否能执行一些其他的不同任务。 在一个外国的城市,我们向陌生人问路,她自信地为我们指路,听起来说的很有道理,继而我们想我们或许还可以问她一些关于当地公交支付系统的一些事。


现在,假设一个人告诉我们,有一张人们在公园里玩飞盘的图片。自然而然地,我们会猜想他或许能够回答一些有关飞盘的形状的问题。一个人能把飞盘扔出多远? 飞盘能吃吗?会有多少人将开始玩飞盘? 一个三个月大的孩子可以玩飞盘吗? 今天的天气适合玩飞盘吗?


计算机可以给图像做上标记,如标上“人们在公园玩飞盘”,但计算机没有机会回答这些问题。 除了给更多图像做上标记,计算机根本无法回答问题,它们不知道什么是一个人,不知道公园通常是在室外的,不知道人们的年纪,也不知道不同的天气会对照片产生不同的影响, 等等。


然而这并不意味着这些系统是无用的; 对搜索引擎来说,它们是非常有价值的。但是到底哪里出了问题呢。人们听说一些机器人和人工智能系统已经可以执行一些任务了。然后,他们会从中推断出人类做同样的一件事情时会有什么样的表现,这是可以预料到的。然后,人们会将这种推断归纳的能力应用在机器人和人工智能系统中。


今天的机器人和人工智能系统所能做的非常有限, 它们还不具有人类的概括能力。


0?wx_fmt=png

4.多义词


Marvin Minsky将那些带有多重含义的词语称作“多义词”。“学习”就是一个典型的多义词; 它可以指多种不同类型的经历。学习使用筷子和学习新歌是两种全然不同的经历;学习写代码和学习适应一个城市的生活方式也是两种截然不同的体验。


当人们听闻机器学习在某些新的领域取得了长足进步时,他们倾向于把一个人在新领域的学习方式作为一种心理模型,和机器学习进行对比。然而,机器学习非常脆弱,它需要研究人员和工程师进行大量的准备,准备专用的编码、专用的训练数据集以及每个新问题领域的专用学习结构。现今的机器学习与人类海绵吸水式的学习完全不同,机器学习是指不必在如外科手术般的改造或专门设计下,就可以在某个新领域取得快速发展。


同样的,当人们听说1997年一台计算机击败了世界象棋冠军,2016年击败了世界上最优秀的棋手时,他们更愿相信这是人类“玩”的一个游戏。当然了,这些程序实际上并不知道,甚至在他们玩的时候也不知道游戏究竟是什么。这些程序比人类更不适应这些游戏。当人们玩游戏时,规则的一个小变化并不会干扰他们。但对于AlphaGo或Deep Blue来说,影响却是巨大的。


多义词使人们误解了机器在人们所能做的事情上可以做得多好。部分原因源于人工智能研究人员,更糟糕的是,他们机构的新闻办公室急于在‘多义’概念的实例中取得进展。这里的重要词语是“实例”,这个细节很快就会丢失。新闻标题大肆宣扬多义词,扭曲了人们对于人工智能如今发展程度、以及它离取得更大成果还有多远的理解。


5.指数


许多人正在遭受“指数主义”所带来的严重影响。


关于摩尔定律每个人都有一些想法,这表明计算机在clockwork-like schedule方面发展的越来越好了。实际上,Gordon Moore说的是,每年每个微芯片中的组件数量都会增加一倍。50年来一直是这样,虽然倍增时间一度从一年逐渐延长到两年多,并且同时微芯片组件数量倍增的这种模式即将结束。


随着芯片上的组件不断倍增,计算机的运行速度也在成倍提高。并且每两年这种倍增都会导致内存芯片的容量翻倍。因为芯片上组件数量不断的增加,数码相机拥有了越来越高的分辨率,液晶显示屏的像素也呈指数倍的增长。


摩尔定律之所以有效,是因为它适用于抽象数字的真假问题。在任何给定的电路中,是否有电荷或电压?答案显而易见,因为芯片组件越来越小,小到了物理范畴内的极限,我们只得到了少量电子的组件,量子效应开始占主导地位。这就是我们现在使用的硅片芯片技术。

当人们陷入指数主义时,他们可能会认为这些作为论据的指数数据将继续保持快速增长。 但摩尔定律和其他看似有效的指数定律可能会失效,因为首先它们就不是真正的指数函数。


回到本世纪初,当我准备将麻省理工学院的计算机科学和人工智能实验室(CSAIL)运作起来时,当我需要帮助90多个不同研究团体筹集资金时,我尝试使用iPod上的内存来对赞助商的连续快速变化进行记录。 以下是价格在400美元以下的iPod的内存数据:


年份     千兆字节

2002     10

2003     20

2004     40

2006     80

2007     160


然后我推断出了未来几年iPod的内存变化,并询问了一下我们是如何使用这些内存的。


一直推算到今天,我们预计一台价值400美元的iPod具有16万千兆字节的内存。 但是今天顶级的iPhone(价格远超400美元)的内存只有256千兆字节,比2007年iPod的容量少了好几倍。一旦内存大到能满足任何人对音乐库、应用程序、照片和视频的基本需求时,这个特定指数就会突然崩溃。当物理限制容量受到威胁时,或者当没有更多经济合理的理由继续拓展内存容量的时候,这个特定指数也会崩溃。

同样地,由于深度学习的成功,我们可以看到人工智能系统的性能突然有了大幅度的提高。似乎许多人都认为人工智能系统性能的大幅提高表示,在未来,人工智能的表现将定期的稳步提升。但是距深度学习获得成功已经过去30年了,而且这是一个孤立的事件。


0?wx_fmt=png


 这并不意味着在未来不会有更多的特殊案例出现,人工智能研究工作的停滞不前突然推动了人工智能应用的快速增长。 但是没有一条“定律”说到这种现象多久会发生一次。


6. 好莱坞场景


许多好莱坞科幻电影的情节是,世界就和平常的每一天一样,除非有了某个新转折。


在《机器管家》这部电影中,当Sam Neill扮演的Richard Martin坐下来吃早餐时,Robin Williams扮演的一个走路说话都与人类十分类似的机器人就在一旁等待着。早饭后,Richard开始读报。是印在纸上的报纸,不是平板电脑,也不是来自Amazon Echo的播客,也不是互联网与神经的直接连接。


事实证明,许多人工智能的研究人员和专家,特别是那些对人工智能失控和杀人进行放肆预测的悲观主义者们,都面临着想象力的挑战,但是他们的想象方向却大相庭径。他们忽略了一个事实:如果最终我们能够建立这样的智能设备,那么世界将发生翻天覆地的变化。我们不会突然就对这种超级智能感到惊讶。随着时间的推移,超级智能将在技术上有所发展,我们生活的这个世界也会因为其他的一些技术而变得更加美好,我们将有很多新奇的体验。很久以前有种邪恶的超智能,想要摆脱我们的控制,但是在它们中间总会有那么一些不太聪明的、不那么好战的机器。


在此之前,会有真正狂暴的机器;在此之前,也会有让人讨厌的机器;在此之前,也会有傲慢的不礼貌的机器。 我们将在研究人工智能的过程中改变我们的世界,不断调整新技术的存在环境和新技术本身。我不是说我们不会遇到挑战。我是说不会向许多人想的那样突如其来的发生一些事情,我们都将做好准备。


0?wx_fmt=png

7.部署速度


在一些行业,新版软件的部署非常频繁。像Facebook这种平台的新功能几乎每时每刻都在部署。对于许多新功能来说,只要通过了集成测试,如果使用时出现问题,退出版本后,基本上不会产生经济损失。这是硅谷和网络软件开发人员习惯使用的手法它之所以起作用是因为新部署代码的边际成本非常非常少。


另一方面,部署新硬件却耗费很大的边际成本。我们在日常生活中都能发现这一点。我们如今购买的许多汽车,不是无人驾驶汽车,而且大部分是不具有软件控制功能的,到2040年我们都可能还会使用这种功能。这给大众车辆要多久才能够使用无人驾驶汽车增加了一个内在限度。如果我们今天建一个新房子,我们可以想像它大概会存在100多年。我住的房子始建于1904年,但是在周围,我的房子并不是最古老的。


资本成本让物理硬件得以长期存续,即便它是高科技产品或是肩负存在的使命,也都要遵循这个规律。


美国空军仍然使用B-52型的B-52H轰炸机。该版本于1961年推出,距今已有56个年头。 最后一架轰炸机完成于1962年,仅仅只是55年前。目前,这些飞机预计将继续使用到至少2040年,也许更长时间——有人说该轰炸机的使用寿命延长可延长到100年。


在世界各地的工厂里我常会看到一些已经用了几十年的设备。我甚至看到过还在使用Windows 3.0的电脑——一个1990年发布的软件版本。工厂里的观念是“如果没有坏,那就不要修”。那些PC和他们的软件已经运行了同样的应用程序,二十多年来,圆满执行了相同的任务。


在美国,欧洲,日本,韩国和中国,工厂的主要控制机制,包括全新的主要控制机制,基于可编程逻辑控制器(PLC)。这些控制器在1968年被引入以代替机电继电器。“线圈”仍然是今天使用的主要抽象单元,PLC被编程,好像是一个24伏机电继电器的网络。尽管如此。以太网电缆已经取代了一些直导线。但它们不是开放网络的一部分。而在这些全新的古老的自动化控制器中,它们是单独的电缆,以点对点的方式体现控制流程(步骤执行的顺序)。当你想要改变世界各地的工厂中的信息流程或控制流程时,你需要几周时间的咨询才能确定里面的内容,重新设计新的配置,然后再由交易员团队来重装电线并重新配置硬件。最近,该设备其中的一个主要制造商告诉我,他们的目标是每20年进行三次软件升级。


原则上,它可以有不同的做法。但是在实践中则不然。我刚刚看了一份工作清单,即使在今天,特斯拉汽车公司也试图在加利福尼亚州弗里蒙特的工厂中聘请PLC的技术人员。他们将使用电磁继电器生产现有的人工智能增强型汽车。


许多人工智能研究人员和专家认为,世界是数字化的的世界,单纯的使用新人工智能系统会对这个领域的操作产生潜移默化的影响,这种影响也将渗透到工厂的供应链和产品设计之中。


真理胜过一切。机器人和人工智能中产生的所有创新都将被广泛地运用到众多领域之中。


本文系网易新闻 • 网易号“各有态度”特色内容


原文链接:https://www.technologyreview.com/s/609048/the-seven-deadly-sins-of-ai-predictions/

你可能感兴趣的:(人工智能预测之七宗罪)