人工智能远远没有你以为的那么智能
全文共2343字,阅读时长约为4分钟
图片来源 | 网络
撰文 | 先声会
出品 | 先声会
先声论:一些科学家认为,在接下来的几十年内,人类将发明出通用人工智能,可以像人类一样思考、学习、交流、解决问题。但目前我们所拥有的仍然是弱人工智能,尚不能够真正取代人类独立工作,人工智能抢走人类饭碗还有很长的路要走。
本文节选、编译自The Next Web平台的文章 How bad AI marketing led humans to take on robots’jobs. 作者是BEN DICKSON。
Part.1 AI尚不完美
华尔街日报最近刊登了一篇文章,详细介绍了提供电子邮件服务的公司如何扫描数百万Gmail用户的收件箱。可这种行为都已不再是什么新鲜事了。
这些公司的服务协议中明确表示,将在有需要时访问用户的电子邮箱,以便他们的人工智能(AI)算法为用户提供智能服务,如价格比较,自动安排日历等。但服务协议里没有明说的是,在某些情况下,他们的员工也会阅读你的电子邮件,因为AI无法完美的执行任务,需要人工来弥补这些缺陷。
华尔街日报文章中提到的一家公司,为使用AI的用户添加了“智能回复”功能,如果用户通过移动设备管理帐户,可能会带来很大的改变。
问题在于,新建一个能够理解对话语境并给出答案的AI并不容易。Skype最近添加的智能回复功能,就没那么有用,尤其在话题拓宽的时候。即使是Gmail自带的智能回复功能,也是通过Google巨大的数据存储和AI功能提供支持。
这就是为什么文中提到的公司,在使用AI时离不开人类员工。当AI的回复不符合语境时,工程师们会自行阅读电子邮件并进行更正(当然这不包括在用户条款里)。
这一过程叫做监督学习,是为了帮助人工智能理解、纠正其犯下的错误。在人工智能的开发和测试阶段,监督学习是很常见的。但是在处理真实数据、实时使用人工智能则是另一回事。
该公司的工程师在接受华尔街日报采访时明确表示,他们已签署协议,不会泄露或分享在该项工作中看到的任何内容,工作时使用的机器也不允许下载任何内容。
但一想到有人能够能看到你邮箱内的所有来往邮件,依然让人感到很不舒服。
最大的问题在于,这种工作流程会无休止地继续,也就是说,总会有人坐在后台扮演人工智能的一部分。
这不是人类第一次充当机器人。这一技术被称为“绿野仙踪”(Wizard of Oz technique),让人类工作者替代计算机的工作,已成为不能完全实现自己人工智能蓝图的公司的常见做法。
Part.2 当代AI的局限
一些科学家认为,在接下来的几十年内,人类将发明出通用人工智能(又称强人工智能,Artificial General Intelligence,简称AGI,指拥有自我意识的程序,可以像人类一样思考、学习、交流、解决问题),这种技术可以高质量的处理信息并像人类一样进行重要决策。
但目前我们所拥有的仍然是弱人工智能(Artificial Narrow Intelligence,简称ANI,指的是在单一领域具有一定智能的程序,例如Alpha Go),适用于特定领域或工作,例如在Google相册中进行图像分类,或在Netflix上为用户推荐电影。
近年来,人工神经网络和深度学习应用的进步为在许多其他用例中实现AI开辟了道路,而这些领域在不久前被认为是人类智能的专有领域。
其中一个值得注意的例子就是计算机视觉(Computer Vision),它是人工智能的分支之一,能够使计算机理解图像和视频中的内容。另一个例子,是深度神经网络,它能够以非常高的精度模仿人类的图像和声音。
虽然深度学习算法的表现非常出色,目前它们仍然属于弱人工智能,离自主决策还有很长的一段路要走。但我们总是倾向于夸大深度学习的能力,导致了源源不断的错误期待甚至恐惧。层出不穷的科幻电影中,人工智能经常扮演着反派角色。
深度学习和深度神经网络具有非常明显的限制,虽然它们在经受训练后的特定任务中,表现能够超过人类,在非训练领域中,注定会失败。
它们的继续发展需要大量的、高质量的数据支持和计算能力,这两样并不是所有公司都能承担的。这就是为什么他们用“绿野仙踪”来弥补这种不足。
Part.3 用人工来弥补智能司空见惯
《华尔街日报》揭露,这种做法在大型科技公司非常常见。
2015年,Facebook发布了一款终极聊天机器人助理M,可以执行各种任务,如买东西,挑礼物,订外卖,打电话,叫车,或有效聊天。
M由Facebook的人工智能提供支持,并由一系列运营商提供支持,这些运营商将监督其业绩,并介入发生错误的环节。
Facebook最初推广到湾区的有限数量的用户,以评估其性能并训练AI减少对人类的依赖。最终智能助理将对所有人开放。
在2018年,Facebook暂停了此项目,但称“学到了很多东西”。虽然该公司没有说明是否达到彻底取代人类的程度,但如果没有,M将给20亿Facebook用户提供服务,需要雇用庞大的人力资源。
其他公司如X.ai,使用AI来帮助用户通过阅读电子邮件和智能任务,会议,电话等来管理他们的工作,X.ai使用自然语言处理,AI分支人类的内容和背景生成的文本。
然而,X.ai还得到一群人体机器人的支持,他们坐在菲律宾马尼拉的安全建筑中,密切监视和纠正AI的表现。人类操作员负责的复杂任务之一是明白如何处理会议的时间,以及人们倾向的表达方式。
2017年,Expensify,一家提供AI设备的公司,可自动扫描并从用户提交的文档中提取数据以填写表格,承认它已借助了亚马逊的在线数据血汗工厂Mechanical Turk,完成了一项任务,据说是由AI算法执行的。用户一直在向公司的服务提交敏感文件,包括收据,报销表和福利索赔。
Part.4 需要AI透明度
上述及许多其他故事表明,在了解AI技术的全貌之前,我们还有很长的路要走。
在Google的Duplex演示之后,该公司演示了如何使用AI助手打电话,像真人一样讲话,我认为公司需要对他们使用的人工智能保持透明。
公司应明确告诉那些期待人工客服的客户,在设置中告知用户他们正在与AI代理进行交流,因为不这样做可能会导致挫败感,特别是如果AI代理人开始以不明确的方式行事。
反之亦然。如果用户希望与AI代理进行交互,公司应该清楚地告诉他们应用程序背后是否有人。
当人们认为他们正与机器而非人类进行交互时,他们更倾向于披露信息,包括关于他们自己的一般和私密细节。公司不得滥用这种信任。
我们还需要认识到这种技术的优点和缺点。AI是人类智慧的增强,而不是其替代品。只要我们尝试创建完全模仿人类行为和功能的AI应用程序,“绿野仙踪”技术就不会消失,我们最终会需要更多人,来充当人工智能。
△图片来自可可简笔画