错误的推断,有限的想象力,以及其他常见的错误使我们无法更有效地思考未来。我们对人工智能和机器人的未来充满了歇斯底里的情绪:它们将会变得多么强大、多么迅速,以及它们将对就业产生怎样的影响。
来源:ATYUN AI平台
我最近在MarketWatch(道琼斯旗下的新闻网站)上看到一个故事,说机器人将在10到20年的时间里取代当今人类的一半工作。甚至有一个图形来证明这些数字。故事似乎表明,我们将从美国的100万名维修工人发展到10到20年后的5万名,因为机器人将接管这些工作。
问:目前有多少机器人在这些岗位上运行? 答:零
问:在这个领域,机器人有多少实际的演示? 答:零
类似的故事也适用于所有其他类别,我们将看到超过90%的工作需要在某个特定的场所进行。
错误的预测会导致人类对那些不会发生的事情产生恐惧,无论是对工作的大规模破坏,奇点,还是人工智能的出现,这些都与我们的价值观不同,可能会试图毁灭我们。我们需要对这些错误进行反击。但是人们为什么制造了这些错误呢? 我看到了七个常见的原因。
1.高估和低估
Roy Amara是硅谷未来研究所的联合创始人。他认为,我们倾向于高估短期内技术的影响,低估长期的影响。这句话有两种理解方式。乐观主义者可以从一种方式解读,而悲观主义者则可能有另一种解读看法。
这句话有一个很好的例子可以诠释–美国的全球定位系统。从1978年开始,有24颗卫星(现在包括备件共有31颗)被放置在轨道上。GPS(全球定位系统)的目标是让美国军方精确地提供军火。但在20世纪80年代,这个项目几乎被取消了。它的第一个用途是在1991年的“沙漠风暴”中;军方接受了它的效用,还取得了几次成功。
现如今,GPS指的是Amara所说的长期影响,而它的使用方式在最初是不可想象的。我的第2款Apple Watch在我外出跑步时使用了GPS,准确地记录了我的位置,还可以看到我沿着街道的哪一边跑步。对于早期的GPS工程师来说,接收器的尺寸和价格是不可思议的。这项技术在全球范围内同步进行物理实验,并在同步美国电网和保持其运转方面扮演着重要的角色。它甚至允许那些真正控制股市的高频交易员避免灾难性的定时误差。我们所乘坐的飞机,无论大小,都使用它来导航。GPS在一开始就有一个目标,但要让它像最初预期的那样工作的话是十分困难的。现在它已经渗透到我们生活的方方面面。
在过去的30年里,我们看到了与其他技术相似的模式。最开始技术为人类带来一个巨大的承诺,然后令人失望,最后对超出最初预期承诺的结果再次开始缓慢恢复信心。这在计算、基因组测序、太阳能、风能,甚至是食品杂货的送货上门领域亦是如此。
在20世纪60年代,或是在20世纪80年代,人工智能被高估了,我现在又相信了这一观点,它的长期前景也可能被低估了。但问题是:长期的时间到底是多长? 接下来的6个错误会解释为什么人工智能的未来会被严重低估。
2.想象魔法
在1962年至1973年间,科幻小说作家亚瑟·克拉克制定了克拉克三大定律:
就我个人而言,我应该提防他的定律一中的第二句话,因为我比其他一些人更保守,认为人工智能将会迅速崛起。但现在,我想就克拉克的第三条定律进行阐述。
想象一下,我们有一台时光机,可以把牛顿从17世纪带过来,把他送到剑桥大学的三一学院教堂。现在从你的口袋里掏出一部iPhone,打开它,这样屏幕就会发光,充满了苹果图标,然后递给牛顿。会出现的情景是:牛顿揭示了白光是如何由不同颜色的光组成的,通过将太阳光分解成棱镜将其重新组合在一起。然后,他无疑会对如此小的物体在教堂的黑暗中产生如此生动的色彩感到惊讶。
此外,播放一个英国乡村场景的电影,还有一些他听过的教堂音乐。然后给他看一个网页,上面有500多页的他的个人注释,他的杰作原理,并教他如何使用缩放手势来放大手机屏幕细节。
牛顿能解释这个小装置是如何做到这一切的吗? 尽管他发明了微积分,并解释了光学和重力,但他却无法从炼金术中分辨出化学。所以我认为他会困惑,无法想出这个设备的最连贯的轮廓。
如果某物是魔法,就很难知道它的局限性。假设我们进一步向牛顿展示该设备如何照亮黑暗,如何拍摄照片和电影,如何记录声音,如何将它用作放大镜和镜子。并向他展示,他在教堂里就可以用iPhone与世界上任何地方的人们交流。
牛顿是否会推测iPhone会永远工作下去,而忽略了它需要充电的情况? 仔细想一下,在迈克尔法拉第诞生之前的100年里,我们就找到了牛顿,所以他缺乏对电力的科学理解。如果iPhone能在没有火的情况下成为光的来源,那么它还能把铅变为金子吗? 这是一个我们都明白的未来技术的问题。如果它离我们今天拥有和理解的技术足够远,那么我们就不知道它的局限性。
在至少50年的时间里,人工智能在推理和常识方面都遇到了同样的问题。它的属性是完全未知的,所以在修辞上它就像是魔法,毫无限制。
关于未来技术的争论永远不会被驳倒。因为这是一个基于信仰的论点,而不是科学论证。
3.性能与能力
我们都使用线索来判断人们如何执行某些特定的任务来评估他们完成不同任务的程度。在外国,我们向街上的陌生人问路,陌生人满怀信心地告诉我们地点时,大部分人肯定会认为他说得是对的,所以接下来,当我们想坐公共汽车时,我们也可以直接向他询问当地的付费系统的相关问题。因为我们会理所应当地认为,他还会说出正确的结果。
现在假设一个人告诉我们,他看过一张人们在公园里玩飞盘的照片。我们很自然地假设这个人可以回答出关于这张照片的一些问题。比如:飞盘的形状是怎样的? 飞盘飞了多远?等等。
而电脑,没有机会回答这些问题。除此之外,它们只能给更多地给图片加标签,但却不能回答问题。
但这并不意味着这些系统是无用的;它们对搜索引擎很有价值。人们听说一些机器人或人工智能系统已经执行了一些任务。然后,他们将这种表现归纳为一种能力。人类将这种泛化应用到机器人或人工智能系统中。
如今的机器人和人工智能系统在它们所能做的事情上是非常狭隘的。人类风格的归纳并不适用。
4.手提箱词汇(suitcase word)
“学习”是一个有力的手提箱词汇。学习可以指很多不同类型的经验。学习使用筷子是一种不同于学习演唱新歌的体验。学习编写代码也是一种非常不同的体验。
当人们听说机器学习在一些新领域取得巨大进步时,他们倾向于将其作为一种思维模式,即人们学习新领域知识的方式。然而,机器学习是非常脆弱的,它需要大量的准备工作,包括特殊用途的编码,特殊的训练数据集,以及每个新问题领域的自定义学习结构。今天的机器学习并不是人类所从事的那种像海绵一样的学习,比如说在不需要有一个的特定目的的情况下,机器学习在一个新的领域取得了快速的进展。
同样地,当人们听说计算机可以击败世界象棋冠军(在1997年)或者世界上最好的围棋选手(在2016年)时,他们往往认为它就像人类一样“玩”游戏。当然,在现实中,这些程序根本不知道游戏到底是什么,甚至不知道它们在玩什么。它们的适应能力也不强。当人类玩游戏时,规则的微小变化不会让他们放弃,而对于AlphaGo或Deep Blue来说则不是这样。
手提箱词汇误导人们,说机器在人们能做的事情上做得有多好。这在一定程度上是因为人工智能研究人员的新闻机构渴望在一个手提箱概念的实例中取得进展。新闻标题大肆宣扬“手提箱”这个词,并扭曲人们对人工智能的普遍理解。
本文转自ATYUN人工智能媒体平台,原文链接:麻省理工科技评论:AI预言的七宗罪(上)
与优必选一起体验人工智能机器人的未来
H2O.ai在IBM Cloud Private上提供自动机器学习
麻省理工的人工智能模型用最少的训练数据来学习对象之间的关系。
Kasisto:与移动金融应用聊天