大数据文摘作品
编译:惊蛰、新知之路、王一丁、张南星、于乐源、蒋宝尚
荒谬的预估往往会导致对未来的恐惧。而为什么有人会对AI和机器人的技术前景如此恐慌?下文中,这七种错误往往导致AI和机器人前景的荒谬预测。
很多人对人工智能和机器人行业的快速发展感到十分焦虑,一部分人担心他们很快会变得过于强大,也有一部分人担心他们会对人类现在的工作体系产生冲击。
Market Watch上有人宣扬机器人将在十到二十年内占据现今大部分工作,甚至还发布了一张满是数据的图片当作论据。
机器人将在十到二十年内占据现今大部分工作
这份声明并不客观,比如,如图中显示美国100万地面维修人员在在十到二十年之后只会剩下5万,因为以后这些工作都会由机器人完成。实际上,目前有多少台机器人正在做地面维修呢?一个也没有。
类似的例子也适用于上图中其他所有行业,所谓在体力劳动者中将会出现90%甚至97%的大幅就业下滑,然而实际上却并非如此。
在许多对AI未来的预测中,都有相同的问题。首先列出ABCD四个有关导致错误预测的大方向,并简要评估他们的立场。
A.泛用人工智能(AGI)- AGI旨在从当今AI技术(如机器学习)中分离出一个思维实体,目的在于创造能像人类一样能够自主思考和行动的个体。但最近AI领域的成功却并非都与AGI相关。
有些人认为所有的人工智能都是泛用人工智能(AGI),但正如“General”一词所指,AGI要求远远高于目前AI。如果将现有的AI都理解为是AGI,那就明显有些名不副实了。
目前,“泛用人工智能”的研究并不是十分理想,既没有做到特别通用,也没能形成一个独立存在的个体。50年前遇到的问题,如在推理能力和常识上的不足,现在仍是制约其发展的主要原因。在其他领域中,比如在人工生命(Artificial Life)和适应行为模拟(Simulation of Adaptive Behavior)方面,人们已经取得了一些进展,但这些研究现在已经停滞了。
理论上说,“泛用人工智能”是可以实现的。然而或许人类还不够聪明,还没弄清楚怎么创造“泛用人工智能”
(编者注:本文作者在“目前适合部署在机器人上的人工智能系统”一文中有介绍。)
文章链接:
http://rodneybrooks.com/forai-domo-arigato-mr-roboto/
即便可能,人类距离理解和建立真正的“泛用人工智能”远比许多专家所说的要远。(经常有人提到“一个人工智能”,好像所有人工智能都是独立的个体一样。这一点很让人困惑,就像本地人不把旧金山(San Francisco)叫做“Frisco”一样,没有一位认真的研究人员会用“一个人工智能”来形容人工智能。)
B.奇点(Singularity)- 奇点的意思是指一个有着明确目标的AI实体,会在某一个点在AI的研究方面超越人类的研究速度。与此同时,就如摩尔定律所言,计算机处理速度越来越快,AI在达到奇点后会开始自我研究与加速的过程,如同物理学中黑洞的奇点一样,我们也不知道奇点发生后AI到底会变成什么样子。
正因为这种不可预测性,“相信”奇点的人们很乐意赋予奇点发生之后的AI无所不能的特性。之所以把“相信”两个字用引号括起来,是因为这种“相信”多多少少带有些宗教的味道。以后对有些人来说,他们可以向这样的AI上传自己的大脑从而得到永生,而不必麻烦地相信通常意义上拥有超能力的神。这种前所未有的强大科技将成为这些人新的上帝,一个新的宗教就此诞生了,科技教!
有些人对于宗教中的救恩日(Day of Salvation)何时到来有着非常明确的想法。一位奇点预言家的追随者们板上钉钉地相信,这件事将在2029年发生。
这种预测错误很大程度上受到了指数主义的影响,这也是在这里所讨论的的AI领域七个常见错误之一。
虽然现在的计算机拥有强大的计算能力,但这并不意味着我们已经拥有或者哪怕是接近拥有一种可以在人工智能领域进行自主研究,并且能通过重写自己的代码从而进行不断优化的程序。
事实上,现阶段我们还没有写出能自己理解一页代码的程序,同样的代码,计算机系的新生上了一个月的课之后就能理解的更好。所以,如果想要创造比人类更擅长编写程序的AI系统,我们面前有很长的路要走。
类似的,奇点崇拜者常常提到的通过在神经元层面模拟大脑来达到奇点的方法的进度也不怎么样。三十年来,我们已经详细了解了C类线虫由302个神经元构成的完整“线路图”,以及它们之间的7,000个连接。这一点对理解其行为和神经元之间的联系非常有用。
但是,这是一项长达30年的研究,涉及数百人,都只为了尝试了解区区302个神经元。根据打算从头一步一步模拟线虫神经系统的OpenWorm项目,研究的进程还没有走到一半。
OpenWorm项目:
https://en.wikipedia.org/wiki/OpenWorm
如果想模拟人类大脑中1000亿个神经元和甚至更大量的连接,难度是可想而知的。所以,如果你想通过奇点事件,把自己上传到计算机模拟里的话,还是先试着多活个几百年吧。
C.不同的价值体系 - 第三种情况,是基于AI的机器在执行某些任务时通常做得很好,好到甚至在复杂的世界中也可以达到超人的表现。然而,这些机器并没有人类的价值观和思维方式,这就会引发各种各样的问题。
这个问题的某些版本的确是真的 - 比如说,如果我最近买了张去某个城市的飞机票,突然间我浏览的所有靠广告赚钱的网站都开始给飞往那个地方的机票打广告。这当然很蠢。我不认为这样的现象算得上高水平的AI,只能说这类广告的算法设计并不是很好。
但这个观点还是有支持者的(出于公正的考虑,以下保持匿名):
“有个很有名的回形针事例刚好能说明这个现象:如果一台机器的唯一目标就是最大化的量产回形针,那它有可能会发明些匪夷所思的技术,只为了把宇宙中能用的资源都转化成回形针,最终毁灭人类。”
当然… 不是这样的。无论如何我们都不会在现实世界中遇到这样的软件,一个为了实现人类给它制定的目标,可以聪明到可以颠覆人类社会,并忽视人类正是它的创造者这一事实。如果你认为技术会这样进化的话简直就是愚蠢至极,各种各样错误的原因很有可能在下文提到的七个问题中找到答案。
包括上文引用的部分,以及在墨尔本举行的人工智能国际联合会议IJCAI(International Joint Conference on Artificial Intelligence)中这位作者多次强调:我们人类需要用数学来证明AI的目标和人类是一致的。
情况C来自于研究员们,当他们发现一个有趣的智能方面的研究课题后,随即借用自己的名声把它宣传成一个短期内急需解决的问题。于是,当AI的奉迎者们知道了,便顺势将这个问题变成一个关乎人类存亡的重大问题。
顺便说一下,用数学给这样的AI作证明并不现实。多年来,通过大量的努力,我们还是无法证明一千行的代码不能被黑客破解,更遑论大型AI系统了。不过好消息是,数千年来,我们人类可以和马共存,尽管马是个拥有自我存在感、渴望和远超常人体力的独立个体,但人类仍为了自己的利益而驱使它们。而神奇的是,我们直到现在都没有任何一个和马相关的定理!
D.超邪恶、恐怖、残忍、人类灭绝型AI - 最后这类就像第三种情况一样,但是这类AI对人类有明显的反感,甚至打算毁灭人类以获得更好的生存。
至少从上世纪六十年代末期开始,这种科幻思维在好莱坞特别流行。在上映于1968年的《2001:太空漫游》中,机器所造成的破坏仅限于一艘太空船。
而在1970年上映,情节也基于这个时间点的《电影巨人:福宾计划》中,人类在全球范围内都遭受到了浩劫。这个主题多年来一直持续着,距今不久的于2004年上映,以2035年为事件发生时间的电影《我,机器人》中,名叫VIKI的邪恶AI通过新型NS-5类人机器人接管了整个世界。
这种情况比上文的情况C错得更为离谱。我觉得这些电影中的想法会让人们对这些的危险感到心有余悸。
军事机器人杀手的话题,在新闻报道中这个话题很容易和情况D相混淆,更糟的是被那些忙着宣扬邪恶AI的人将其与情况D彻底混为一谈。事实上这两个是完全不同的问题。此外,我认为关于军事机器人的很多观点都被严重误导了。然而,这是一个完全不同的话题
言归正传,如下是在AI预测方面经常犯的七类错误。这七类错误影响着A、B、C、D四种情况发生的时间和可能性。不过,其中有些错误对错误预估的影响要大于其他的错误。下文中,小标题里用字母标出了这七类错误主要会造成A、B、C、D中的哪些情况。第一类错误对所有情况都会造成影响!
1. [A,B,C,D]高估与低估
未来主义者Roy Amara,是位于斯坦福大学内的For The Future研究机构的联合创始人与主席,无数项目的资本风投家,也是硅谷的智囊之一。让他被世人所知的是他的那句著名格言,常被引用为“Amara法则”--我们总是倾向于高估技术带来的短期影响,并低估其长期影响。
关于Amara法则的双向性有一个很好的例子,即美国全球定位系统(GPS)30年的历程。自1978年起陆续在轨道上放置了24颗卫星(算上备份的话是30颗)。
地球上的任何一点可以同时看到其中的4颗,这样就可以计算经纬度和海拔高度。位于科罗拉多州Schriever空军基地的指挥中心不间断的监视卫星的轨道的精确度和机载原子钟的准确性,出现微小的偏差后便上传修正的数据。
如果没有这些上传的数据,GPS将会在一至两周之内出现定位到别的街道的错误,再过几个月之后,误差就可能将你定位在别的城镇了。
GPS的目标本是为了令美军精准的投放炸弹,这是设计之初的期望。美军在1991年的“沙漠风暴”军事行动中首次使用,起初的效果貌似十分理想。
但在90年代GPS计划一直受到质疑因为其精确程度一直没有达到最理想的效果,直到21世纪初被美军全面接受之前,整个项目面临着一次又一次被裁掉的风险,度过了一段艰难的日子。
如今,GPS的使用进入了长期的规划,当初把它投放到卫星轨道时根本没想到会有如此多的用途。比如当我在外面跑步时,正是利用Apple手表上的GPS模块记录我的位置,其精度可以达到分辨出我在沿着一条街的哪一边行进。
GPS信号接收器的尺寸之小、价格之低及应用之广估计是它原来的设计者门怎么也想像不到的。它在为全球的物理实验提供同步服务、成为美国国家电网的核心组成部分、甚至帮助股市里高频投资的操作者们规避时间误差所造成的灾难。
GPS应用在所有的美国大大小小的飞机导航系统上、跟踪定位获得假释的犯人、告诉人们什么种子应种植在哪片土地上。它获取卡车队伍的信息并报告司机们的表现、基于地面上反弹回去的信号判断地面湿度,并制定灌溉计划。
GPS始于一个单一的目标并艰难的为之努力。现在它已渗透进我们生活的诸多领域,如果没有了GPS,我们在生活中遇到的问题不止迷路这么简单,而是可能会处于一个饥寒交迫的环境,最终导致死亡。
在过去三十年中我们也看到了同样模式的技术型产品。首先是一个宏伟的设想,紧接着就是失望,然后一点点的发展,最后超越了当初所设想的目标。比如区块链(比特币是其第一个应用),人类基因组测序,太阳能,风能,甚至送货上门服务。
或许最著名的一个例子就是计算机。当1950年代第一台商业计算机问世时引起了广泛的恐慌,大家都认为以后所有人都会因计算机的出现而丢掉工作(可以看看1957年的电影《Desk Set》)。
但在此之后30年里计算机几乎没有对人类的直接影响,甚至到了1987年仍没有用在消费类设备上的微处理器。所有的改变都发生在接下来的30年中,也被称之为第二次工业浪潮,现在看看我们身上、车里、房屋里,计算机已随处可见。
为了阐述计算机的长期影响如何被一贯地低估,我们需要回顾一下旧科幻电影或电视剧中描绘的未来是什么样子。在1966年版的《星际迷航》中300年后宇宙飞船计算机的样子已经让30年后的人们笑掉大牙,但我们不妨三个世纪以后再回头来看看现在的科幻电影。
《星际迷航:下一代》和《星际迷航:深空九号》这两部电影的时间跨度是虽然达到13年(1986-1999),但影片中遥远未来的太空船里,演员手上仍需要携带大量的文件,与空间站的文件传输仍然不能通过网络的方式(就像当时的AOL网络一样),而飞船中用来检索资料的数据库由于仍采用互联网时代之前的“未来”设计样式而显得十分的落伍。
绝大多数的科技产品的短期效应会被高估,因为他们是笼罩着光环的新鲜事物。人工智能由于被贴上新鲜事物的标签在1960年代和1980年代一次又一次的被高估,现在也是同样的情况。(一些大型公司释放出的在市场上应用AI的消息是带有欺骗性的,在不远的将来可能就会砸了自己的脚。)
并不是所有的科技产品的长期效应会被低估,但AI的长期效应的确被低估了。问题在于“多久”才算长期,以下是6个常犯的错误观点,会助于更好的理解为什么AI的长期效应是被严重低估了的。
2.[B,C,D]想象魔法
亚瑟·克拉克(Arthur C. Clarke)、罗伯特·海因莱因(Robert Heinlein)与艾萨克·阿西莫夫(Isaac Asimov)并称为科幻界的“三巨头”。但克拉克绝不仅是科幻作家,他更是一位发明家、科普作家与未来主义者。
早在1945年2月,他给《无线世界》(Wireless World)写了一封信,提到了与地球同步的轨道卫星的创意,同年10月他又发表了一篇论文,概述了这些卫星可以向全球范围提供了无线电信号的覆盖。
在1948年他写了一篇短篇小说《前哨(The Sentinel)》,为斯坦利·库布里克(Stanley Kubrick)的经典电影《2001太空漫游》提供了核心灵感。在电影拍摄期间,卡拉克为电影撰写了同名书籍,为电影观众们解答了诸多的疑惑。
在1962年至1973年期间,克拉克明确三大假说,后被称为克拉克三大定律(他说牛顿仅用了三条定律,对他来说三条也足够了)。
定律一:如果一个年高德劭的科学家说,某件事情是可能的,那他可能是正确的;但如果他说,某件事情是不可能的,那他也许是非常错误的;
定律二:要发现某件事情是否可能,唯一的途径是跨越“可能”的这个界限,从不可能回到“可能”中去;
定律三:任何非常先进的技术,初看都与魔法无异。
想象一下我们乘坐时间机器(时间机器本身就如同魔法一般)带着牛顿从17世纪晚期来到现在剑桥大学的三一学院教堂。这座教堂在牛顿生前已经伫立100多年了,所以当他突然发现身处其中时应该并不会感到太过震惊,在没有意识到当前的日期之前。
然后我们给牛顿先生展示一下苹果(大家都知道牛顿与苹果的故事)。从兜中拿出一个苹果手机,开机并递给牛顿先生让他看看发亮的屏幕和充满各种应用的图标。
别忘了牛顿的伟大成就之一就是通过三棱镜将白光分离成不同频谱的光,从而揭示了光的秘密。所以在阴暗的教堂里,从一个如此小的物体中释放出如此艳丽的光,无疑会给他一个巨大的惊喜。
接着给他播放一段英国田园风景的小视频,或许再配上一些他熟悉的动物和教堂中的音乐,这些画面暂时跟未来世界的样子无关。最后,打开一个网页,里面是500多页他亲笔注释的著作《自然哲学的数据原理》的电子版,教他用手势操作来放大查看细节。
牛顿能够解释出这么小的设备是怎么做到这些功能的吗?虽然他发明了微积分、研究出光学和重力等物理理论,但他从未能将炼金术和化学区分开。
所以他会很困惑,甚至无法设想出这台设备最基本的理念框架。这与他生前致力研究的神秘事物并无二致。对他来说这就是魔法无异。请记住,牛顿可是一个十分聪明的家伙!
如果一类事物被定义为魔法,我们则很难知晓它的界限。假如我们进一步给牛顿展示手机如何在暗处发光、如何拍照及录音,如何用来当放大镜和镜子,还可以让手机以不可思议的速度来进行多位小数的算术运算,再把它佩戴到身上用作计步器。
牛顿看完这些后,会猜测这台小机器还能做什么?他会不会猜出通过这台设备就在这座教堂里即可与世界上任意角落的人通话?
三棱镜效应是永恒的,牛顿会不会猜测出iPhone也会像三棱镜一样永远有效,而不明白事实上它需要充电(记住我们是在迈克·法拉利出生前100多年找到的他,所以当时关于电的概念并没有普及)?如果不需要火就可以产生光,那么能把铅炼成金吗?
这就是我们所有人想象未来科技时所遇到的问题。如果距离我们所能理解的科技太过遥远,我们将不会知晓它的界限,那对于我们来说就是魔法。
一项科技一旦超越了那条“魔法线”,它将不可能再被证伪,因为那的确就是魔法。
每与别人探讨人类是否应该惧怕泛用人工智能时,经常遇到这样的情景,暂时先不论上文中C和D的情况,人们总是认为我不明白它有多强大。可这并不是一个论点,因为我们甚至都不知道它是否存在。以观察到的种种迹象显示我们仍不知道如何建造一个泛用人工智能。所以它的各项属性性能便无从知晓,所以从字面意思上看它的确具有强大的魔力,没有界限。
然而,宇宙中没有任何事物可以没有界限,再强大的AI也不例外。
留神那些说未来科技如同魔法一般的说法,这个说法永远无法被证伪,因为这是一种源于信念的说法,而不是源于科学的。
3. [A,B,C]表现 vs 胜任
在日常的社交中,我们可以判断出我们周围人的个体能力值,的确有时个别例外情况会颠覆或混淆我们的估计,这也是种族主义、性别歧视与阶级歧视等问题的根源。
然而总的来说,我们通过观察一个人曾经做事的表现来评估他完成其他事情的能力,也能够从其在一项任务的表现来推测他能否胜任更艰巨的任务,我们自然而然的能从一个人表现出的能力去推断出他在相关领域的胜任能力。
当我们在国外向陌生人问路时,如果他们满怀信心的用我们问的语言进行回答,并且所指的路线看起来也没错。我们就会觉得值得再碰碰运气,继续问乘坐公交时怎么付费。
如果我们十几岁的孩子可以配置新游戏机连到家里的WIFI上,那么我们会认为只要他们愿意就可以把新的家用电脑也连到WIFI上。
如果一个人可以驾驶手动挡的汽车,坚信他也可以开动自动挡的汽车。可是如果这个人生活在北美洲,我们并不认为他可以反着来一遍。
如果我们在一座大型五金商店内询问员工家用电器的配件在哪,他却领我们走到了花园工具的那一行。我们就不太可能再去问同一个人哪能找到浴室里的水龙头。因为我们认为他既然不知道家用电器配件在哪,说明他其实不太清楚店里的布局,所以我们便倾向于找其他人问第二个问题。
现在,让我们来看一下当今AI系统的一些表现的案例。
假设一个人向我们展示一张人们在公园里玩飞盘的照片,我们自然的相信他可以回答下面这些问题:“飞盘是什么形状的?”、“一个人大概可以把飞盘扔多远?”、“飞盘可以吃吗?”、“大概多少人在玩飞盘?”、“3个月大的宝宝可以玩飞盘吗?”、“今天的天气适合玩飞盘吗?”等问题。
与之相反,我们不能指望当一个人因为文化差异,完全不明白照片里显示的是什么时,仍能够回答这些问题。如今,图像标签(image labelling)系统虽然可以比较准确的为网络上的图片打上“人们正在公园内玩飞盘”诸如此类的标签,但仍然不能回答上述那些问题。
而且事实是它们仅限于打标签,根本不能回答任何问题。它们不知道图片中的内容意味着什么,人类是什么,公园通常是在户外的,人类有年龄这个属性,天气本身远比图片上看到的天气要复杂得多等等……
但是这并不代表这个系统毫无用处。他们对于搜索引擎公司来说具有重大的意义,因为仅是做好打标签的工作就可以让搜索引擎公司从单一文字搜索跨越到可以对图片进行搜索。
不过值得注意的是,搜索引擎通常会为一个问题提供多个答案,让搜索者自己决定哪一个才是真正相关的内容。搜索引擎公司一直为了能在推荐的前几个选项中包含最佳选项而不断的提升搜索引擎的性能。
这种依赖于用户去甄选答案的做法,使得搜索引擎没必要每次都将最佳答案排到第一个。但如果只能给出一个答案,无论是搜索“巴黎的高档酒店”,或是在一个电子商务网站搜索“时髦领带”的图片,这些搜索引擎的用处将大打折扣。
这就是很多人犯错的地方,每当他们听说某个机器人或AI系统可以处理某一类任务,他们会按照推断人类的“表现 -> 胜任”方式去对这个机器人或者AI系统进行判断。
现阶段机器人和AI系统能做的事情还很有限,人类社会中的归纳概括模式对它们并不适用。如果谁用了和人类同样的推断方式,就会得到十分错误的判断。
4. [A,B] 手提箱词
“手提箱词”(Marvin Minsky创立的一个术语,意思是说一个单词包含有很多含义,如手提箱打开后里面有很多东西一样,比如:意识,思考,经验等等)。那篇文章讨论了机器学习中的“学习”一词,对人类而言可以有很多类型的学习。人类对于不同类型的学习当然有不同的应对。比如:学习使用筷子与学习一首新歌的体验就非常不同;学习编写代码与在某一城市中学习新的路线也截然不同。
当人们知道机器学习在某个新的领域取得了进展以后,往往会将自己对该领域的学习、思考模式套用过去,对很多模棱两可的词汇的理解就会有偏差,比如“思考”对于人类和机器是完全不同的。
而且很多人不明白,机器的学习是有很多的前提的,它需要研究人员或工程师进行大量的前期工作,要针对不同领域的写相应的代码来处理输入数据,还要有特定的训练数据集以及针对每个新的领域的不同的学习结构。
对人类而言,面对一个新的领域无需精密且繁琐的前期工作就可以直接开始全面的进行学习,这种海绵式的学习方式是目前机器学习远远无法达到的。
同样,当人们听到计算机现在可以击败国际象棋世界冠军(1997年)或围棋世界冠军(2016年)时,他们往往认为它就像人类一样是在“下”棋。 然而事实上这些程序并不知道游戏实际是什么,也不知道他们在玩什么。
正如在The Atlantic网站中,围棋世纪之战文章中指出的那样:驱动人类棋手李世石的是12盎司的咖啡,而AlphaGo作为分布式AI应用需要大量的机器部署,和超过100位科学家在其背后作为支持。
当人类选手进行比赛时,对规则进行小的变动并不会使他无所适从——好的选手懂得如何去适应规则。但对于AlphaGo或Deep Blue 来说并非如此。(Deep Blue 于 1997 年击败国际象棋大师 Garry Kasparov)
这类手提箱词的使用会让人们对现在机器能做到的事情产生误解。 一方面,研究人员与他们所在机构的新闻部门,都渴望宣称他们的研究取得了进展,因此这类手提箱词便有了用武之地。
无论研究人员多么谨慎(实情是往往并不是所有人都总是非常小心),只要研究结果传到新闻部门,然后进入参差不齐的新闻媒体之中,文字中的很多细节便会丢失。 标题大肆宣扬“手提箱”字眼,不断的使读者对人工智能已到达多么高的水平以及有多么接近目标产生误解。
我们甚至还没怎么谈到Minsky列举的许多关于AI系统的手提箱词;比如“意识”,“经验”或“思想”。对于我们人类来说,很难想象如何在没有意识或没有下棋经验,或者行棋思路的情况下下棋。
截至目前,我们的AI系统在人类的各种活动中还远远没有达到手提箱词所能代表的水平,甚至还没有到达初级阶段。当我们夸赞特定领域的AI应用,认为它们在一定程度上达到了“智能”的水平时,媒体,或者说大多数看客,又会将AI的能力泛化,认为其无所不能。
我们担心的是这些单词的部分含义哪怕只是在非常有限的一方面得到了证明,人们往往便将其神化,以为机器在这些方面的智能已经接近类似人类的能力。
用语很重要,但只要我们用一个词语描述有关AI系统的某个东西时,如果这个词也适用于人的话,人们就会高估其对于AI系统的意义。迄今为止大多数适用人类的单词在用到机器身上时,其表达的水平都不过是用在人身上时的千万分之一。
下面是一些已经应用于机器的动词,但在它们描述的实际能力方面机器又与人类完全不同:
预期(anticipate)、击败(beat)、 分类(classify)、 描述(describe)、 估计(estimate)、 解释(explain)、 幻想(hallucinate)、 听(hear)、想象(imagine)、 企图(intend)、 学习(learn)、 建模(model)、计划(plan)、 玩(play)、 认识(recognize)、读(read)、 推理(reason)、 反映(reflect)、 看(see)、 理解(understand)、走(walk)、写(write)。所有这些词语,都可以在相关论文中找到,但在论文中的意思往往只是这些词所蕴含的丰富含义的很小一部分。不幸的是,通过这些词的使用,给人了一种机器已经与人类相差无几了的错觉。
这就导致了人们误解并高估了当今AI的能力。
5.[A,B,B,B,…] 指数论
很多人都遭受过所谓的“指数论”之苦。
每个人对摩尔定律都有自己的想法,至少知道计算机的运算速度会随着时间发展变得越来越快。
戈登摩尔实际上说的是,芯片上的组件数量会每年翻番。
1965年摩尔做出预测的时候所用的下面这张图只有4个数据点:
只推断了10年,但迄今为止已经过去了50年,定律中所说的“每年”也已经变成了“每两年”,尽管这样也慢慢要行不通了。
芯片的元件数翻番使得计算机速度也加倍。而且还使得内存芯片每2年容量变成之前的4倍。同时也使数码相机分辨率越来越高,LCD屏幕像素呈指数增长。
摩尔定律见效的原因是在其将抽象的数字化问题变成了“是”与“不是”的问题。比如这样的一个问题“是否存在电流或者电压呢?”对这个问题而言,无论我们如何将其中的电子数减半再减半,答案都一直是肯定的。但如果一直减半到将其中的电子数只剩几个,量子效应便开始成为主导,答案将不再是肯定的。相似的,我们的硅晶芯片就走到这个关键的节点上。
摩尔定律和类似的指数论可能因三个不同原因失败:
a. 它达到了一个物理限制,减半/加倍的过程不再有效。
b. 市场需求趋于饱和,因此推动定律生效的经济因素不再存在。
c. 过程从一开始就不是指数型的。
当一个人深信指数论时,他们可能就会无视上述任何一个原因,并继续用指数论捍卫自己的观点。
在第一个原因的作用下,摩尔定律现在已经近乎止步不前,但正是因为摩尔定律50年来一直发挥其作用,技术的不断创新,硅谷、风投的崛起才得以发生,也使一批极客成为全世界最富有的人。这些事实导致有太多的人认为,包括AI在内的技术的一切都是一直呈指数型发展的。
常识是很多指数型过程其实只是“S曲线”的一部分,也就是说到了一定程度指数型的高速增长就会放缓。诸如Facebook、Twitter等社交平台用户数的指数型增长最终必将变成S曲线,因为可变成新用户的人数是有限的,所以指数型增长无法一直持续下去。这就是上述情况(b)原因的例子。
但还不止这些。很多时候,个人用户的需求可能阶段性看起来是指数型的,但随后就变得饱和了。
回到本世纪初,麻省理工学院的一个很大的实验室(CSAIL),需要给超过90家研究小组筹集研究经费,试图通过iPod内存的快速增长向赞助商说明世界在进行快速的发展。跟摩尔不一样的是有5个数据点!通过5年的观察,在每年6 – 9月会有新的机型发布,具体的数据是关于400美元可以给iPod提供多大存储。数据如下:
|
Year
|
GigaBytes
|
|
2003
|
10
|
|
2004
|
20
|
|
2005
|
40
|
|
2006
|
80
|
|
2007
|
160
|
数据有非常完美的指数型(Gregor Mendel如果有这样的数据恐怕会乐开花......)。 然后,用这些推断了几年后我们将对拥有的内容作何安排。
(译者注:Gregor Mendel,遗传学奠基人,早期因数据可靠性未受到重视)
如果推算到现在预计400美元的iPod应该有160000GB(或160TB)的内存。但是今天最高配的iPhone(售价超过400美元)也只有256GB的内存,还不到2007 产的iPod的2倍,而最高配的iPod Touch也只有128GB,相对于10年前的型号内存反而还下降了。
当内存容量大到可以容纳任何常人完整的音乐库时,这个特别的指数型就会突然崩塌。也就是说,当客户需求不再存在时,指数型也会随之停止。
同样的,由于深度学习(机器学习的一种形式)的重大突破 — AI系统的性能突然得到大幅提升,很多人以为AI会以同样的速度在先前的基础上不断的提升。但其实深度学习的成功是30年不懈努力的结果,并且没人之前能预想到今天的成功,这只是个黑天鹅事件。
当然这也不是说不会有更多的黑天鹅事件,长期止步不前的AI研究的可能在某一天突然有所进展,并使的许多人工智能应用的表现得到提升。 但是并没有任何一个“定律”说明这样的偶然事件会多久发生一次。对AI的创新与发展而言,这其中并没有物理过程,并不像摩尔定律中那样只需要将元器件做得更小就可以了。这也就是上面的第三个原因(c)的例子。
所以当你看到有人把指数型指数型增长作为AI发展的判断依据时,记住,所谓的指数型本身有时就是错误的,且就算对真正的指数型而言,在达到物理极限或者缺少更多的经济动因时,指数型增长也将不复存在。
6.[C,D]好莱坞电影
很多好莱坞科幻片的情节是这样的,电影中的世界和现实世界十分接近,除了有一两点科技上的不同。这一两点不同往往就是外星人突然出现的原因,原本一切如往常一般,但突然有一天,外星人就出现了。
外星人基于这一两点的不同突然出现似乎在逻辑上还可以接受,但如果是对新的科技而言呢?现实生活中,难道很多新技术都是在同一时间出现么。
在好莱坞的世界中,当整个人类科技受到极大冲击时,电影有时能给出合理的解释。比如《终结者》中,阿诺德·施瓦辛格所扮演的超级机器人来自未来,穿越回的世界就不需要通过一步步的发展进步到可以创造出超级机器人的科技水平。
但是在别的电影中,科技的发展过程就显得有些可笑。
在电影《机器管家》中,Richard(Sam Neill饰)在等待可以独立行走、交谈的类人机器人(Robin Williams 饰)提供早餐时,随手拿起了桌子上的一份报纸…打印在纸张上的报纸!不是平板电脑,也不是收听类似于Amazon Echo智能音箱播放的电台,也不是通过神经链接直接访问互联网。
《银翼杀手》中,Harrison Ford饰演了警探Rick Deckard,Sean Young饰演的机器人Rachael,在电影中Rachael和真人并无二样,然而Deckard怎么联系Rachael的?——用投币公用电话。正如Tim Harford最近指出的,这样的技术老到了读这篇博客的大多数读者都没见识过。(Harford在同一篇文章中评论道:“预测未来技术的发展是及其有趣但是无济于事的游戏”。真是令人深刻的洞见。)
在这两个好莱坞电影的例子中,作者、导演以及制片人设想出了拥有视觉、听觉、能够说话 - 像人类一样存在于这个世界的机器人。不考虑那些神奇的材料和工作原理,这些机器人也算得上是泛用人工智能了。可这些创造家们却不愿意去思考一下在这些吸引人的新技术们发展时,这世界会变成什么样子。
似乎许多AI研究者和专家们,尤其是那些沉迷于预言C、D的悲观主义者们,都忽视了这一点。
许多C、D相关的预言不仅仅在时间维度上犯了错,还忽略了一个事实:如果我们最终创造了如此智能的机器,这个世界将与现在迥然不同。我们并不会骤然间惊讶于超级智能,随着时间的流逝,人类逐渐发明并发展新的技术,世界将因为许多不同的智能设备而变得大不一样。与此同时,我们人类对新的技术以及事物的理解也将与现在大不相同。
比如说,在D类情况(邪恶人工智能打算消灭人类)之前应该出现过不那么智能、不那么好战的机器人,再之前有脾气暴躁的机器人,再再之前有令人讨厌的机器人,再再再之前有傲慢自大的机器人。
我们会一步一步的改变我们的世界,让生活的环境和新技术相互融合。这并不意味着未来世界不会有意外出现,而是说未来并不会像很多人想象的那样,突然一下子天翻地覆。那些惊世骇俗的假想很多是违背现实的,和未来一点关系都没有。
“好莱坞电影”式的修辞手法在争论中有时的确很唬人,但它们和真实的未来没有关系。
7. [B,C,D] 应用速度
随着这个世界逐渐变成软件的天下,某些行业内的新版本发布频率变得非常高。诸如Facebook这样的平台几乎每小时都有新功能上线。因为很多新功能只要经过了集成测试,就算出了问题,版本回退导致的经济影响也是微乎其微。
常常发现在类似的平台上某些功能在短时间之内就突然失效了(今早Facebook的通知下拉菜单功能就失效了 ),也许就是因为发布时出了问题。但对于重要的盈利模块,例如广告投放,改动起来就很谨慎了,版本变化频率基本以周为单位。
这就是硅谷或者网站开发者们习惯的节奏,这的确有用,因为发布新代码的边际成本是非常低的,近乎于零。
而硬件则相反,部署的边际成本非常高,这从我们的日常生活中就能感觉到。如今我们购买的大部分车都不是自动驾驶,里面甚至都没有软件的影子,而这些车可能在2040年还行驶在路上,这给自动驾驶的大规模普及形成了先天的限制。
如果我们建造一座新房子,会默认这座房子能够维持超过100年。我现在住的房子就建造于1904年,而且它还不是附近最老的建筑。
出于成本因素的考虑,实体设备都会设计得很耐用,就算其中有很多的科技甚至事关存亡也不例外。
美国空军现在还在使用B-52轰炸机的变体B-52H轰炸机,这个版本是在1961年发明出来的,也就是说它已经56岁了。最新的一架是在1963年建造的,不过54年前而已。现在这些飞机还将服役到2040年,也有可能更长——据说有打算延长它们的使用期限到超过100年(和“千年鹰号”比比!)
在美国,对陆洲际弹道导弹(ICBM)是义勇兵三型的变体,于1970年引入,共450枚。发射系统依赖于八寸软盘驱动,一些发射流程的数字通信则使用模拟有线电话。
一些工厂里,甚至还看到过使用Windows 3.0的电脑,这一版本发布于1990年。很多工厂的主旨是“只要还没坏,那么就别修它。”这些电脑以及其中的软件已经可靠地运行了相同的软件并完成了他们的任务超过了二十年。
工厂中的自动化控制机制大多基于可编程逻辑控制器(PLC),包括美国、欧洲、日本、韩国以及中国的新型工厂,这是1968年为了替代电磁继电器而引入的。
“线圈”依旧是当今主要使用的控制单位,PLC的编程方式也和24伏特电磁继电器网的效果类似。同时,有些直连的电线被以太网线替代,它们基于RS485八位字符串协议,效仿原来的网络,通过模仿24伏的直流电来传输信息(较原有网络已经有了很大的进步)。
以太网接线并不是开放网络的一部分,而是以点对点的方式连接了这些翻新的自动化控制系统。在这个世界上的大多数工厂中,当你想改变信息流或者控制流时,都需要先请顾问团队们花几周的时间去明确相应的部分是怎么运转的,然后设计新的改动,再然后整个硬件团队再去重新开发和配置这些设备。
理论上整个过程可以更加的合理化,但在现实生活中并不是这样。这类情况并不只发生在技术停滞了的工厂中,即使是在今天、当下这一分钟,搜索一下招聘信息 - 特斯拉还在给他们佛利蒙市的工厂寻找全职PLC技术顾问。当今最人工智能化的自动驾驶汽车的生产,仍然是由电磁继电器仿真来完成的。
许多AI研究者以及专家都认为这是个数字化的世界,将新的AI技术应用于整个行业包括供应链、工厂、产品设计方面是轻而易举的。
没有什么比这更不切实际了。
重新配置自动化设备所受到的阻力是任何人都想象不到的大。
在这个领域中,任何人都无计可施,只能让改变一点点的发生。那个回形针的例子,既制造回形针的人工智能系统决定聚拢所有的资源用来生产更多的回形针,即使是以牺牲人类所需要的资源为代价。显而易见这就是无稽之谈,因为这整个过程中需要有人去为这个系统未来几十年的物理布线去进行考虑和担忧。
大规模应用机器人和AI相关的想法所需的的时间,几乎都远远比业内、圈外的人们所想像的长得多。自动驾驶就是一个很好的例子,一夜之间似乎所有人都知道什么是自动驾驶,并且认为很快就会大规模应用到生活中。但实际上,这个过程比想象中慢得多,整个发展过程可能需要花费数十年,而非几年。
如果你认为这过于悲观,想想看,第一辆上路的自动驾驶车是在30年前,而直到现在,我们还没有开始真正普及。1987年在慕尼黑的Bundeswehr University, Ernst Dickmanns和他的团队发明了自动驾驶的货车,在公共高速公路上以90公里每小时(56英里每小时)的速度行驶了20公里(12英里)。
1995年7月,来自卡耐基梅隆大学的Chuck Thorpe和 Takeo Kanade带领他们的团队测试了第一辆不用掌握驾驶盘和踏板的迷你货车。Google和Waymo已经研究自动驾驶车辆超过8年了,但是还没有任何大规模生产的计划。也许,从1987年开始尚需四十、五十甚至六十年,自动驾驶车辆才可以实现真正的普及。
机器人和AI的发明需要很长、很长的时间才可能成为现实并得到大规模应用。
结语
当你看到专家们对机器人和AI做出积极或消极的预测时,我建议好好利用这7类错误来评估一下他们的论证。以我的经验来说,总是能在他们的论述中发现2到3个,或者4个类似的漏洞。
预测未来很难,尤其是在一切未知之前。
原文链接:
http://rodneybrooks.com/the-seven-deadly-sins-of-predicting-the-future-of-ai/