智造观点
今年6月,国外一篇《AI寒冬将至》的文章曾引发业内对人工智能发展的争议,自动驾驶事故频发、AI军事化以及AI会导致人类失业等话题,也不断被媒体所报道,受众对AI的质疑和不信任感在增加。媒体掌握舆论话语权,AI研究员掌握着专业技术,但两者的矛盾越来越大,面对媒体的误读和炒作,甚至很多科学家都要专门发文或出书进行辟谣和纠正。但这样的情况是怎么发生的?媒体的角色应该是什么?又该怎么避免呢?
文/灰灰
来源/人工智能观察(ID:Aiobservation)
去年6月,Facebook人工智能研究部门的五位研究人员发表了一篇研究报告,展示了机器人模拟人类进行谈判的对话情形,发现机器人偶尔会说一些很奇怪的话,比如:“对我来说,对我来说,对我来说,对我来说,对我来说球没什么用。”这在当时被认为是开发出了一种机器人之间进行交流的“方言”。
这项研究并没有新的突破,所以业内觉得没什么,但传到媒体那就变成了另外一件事,他们觉得这是一件很严重的事情。比如,Fast Company发表了一篇题为《人工智能发明了人类无法理解的语言,我们应该阻止吗?》的文章,全篇都在描述机器人不断出现偏离标准英语的交流,更重要的是,Facebook的研究员是在认为这些机器人失控的情况下,决定“拔掉插头”,结束这项研究。
这篇文章出来后持续发酵,并且引发很多媒体的跟风,甚至煽动大家的恐惧情绪,称Facebook的工程师因为机器人进行了新创语言的自主交流而感到恐慌,不得已叫停了他们的AI研究项目。《太阳报》还说“这与电影《终结者》的情节非常相似,其中有一个机器人出现自我意识后对人类发起了战争”。
对于这些由媒体制造的“耸人听闻”消息,卡耐基梅隆大学机器学习系的助理教授Zachary Lipton感到万分沮丧。根据他的说法,近年来“机器学习”和“深度学习”等话题越来越受关注,导致了这种“见缝插针”的低质新闻的泛滥—— Lipton称之为“AI误报风向”(AI misinformation epidemic)——不但歪曲了研究目的,还对人们正确理解该行业的发展造成了负面影响。
在这种情况下,越来越多的AI研究员也同样体会到了Lipton的挫败感,并开始担心人工智能猜测性的虚假报道,会促使人们对其发展前景抱有错误的预期,最终威胁到人工智能未来的进步以及其他新兴技术的应用。
由来已久的夸张报道,科学家出书辟谣
事实上,媒体对计算机智能的夸大宣传并非我们这个时代所独有的,早在“计算”这一概念出现时就已经存在。而最早可追溯到1946年2月,当体型巨大的电子数字积分计算机Eniac发布时,记者纷纷将其描述为“电子大脑”、“数学怪人”、“天气预测者和控制者”,甚至是“巫师”。为了遏制对这一新机器的炒作,避免大众受到虚假新闻的误导,著名英国物理学家DR Hartree在《自然》杂志上发表了一篇文章,描述了Eniac简单而有效的工作方式。
但让他难过的是,《伦敦时报》在他的研究基础上发表了一篇题为《电子大脑:解决谜题,带有记忆的阀门》的文章。对此,Hartree特意给该编辑写信,称“电子大脑”一词具有误导性,机器“无法替代人类的思想”。遗憾的是,误导已经形成,在媒体眼中Eniac永远成为了“大脑机器”的象征。
无独有偶,美国康奈尔航空实验室的工程师Frank Rosenblatt在1958年提出了一种名为“感知器”(perceptron)的基本机器学习算法,按照设计,它只能通过培训来识别有限的模式范围,但《纽约时报》发表了一篇文章声称该算法是一个“电子大脑”,可以“自学”,并很快“能学会走路、说话、看、写作、自我复制,同时也能意识到自己的存在“。
到了20世纪60年代末,许多AI先驱者越来越明显地意识到自己低估了在机器中模拟人脑的难度。1969年,曾公开表示机器智能将超越人类的马文·明斯基与计算机科学家西摩尔·帕普特共同撰写了一本书,来证明Rosenblatt的感知器无法实现专家们曾经的设想,同时还表示,其智能程度远没有媒体宣传的那么夸张。
这本书出版后,迅速在人工智能及其他领域传播开来,掀起了一场戳穿人工智能“神话”的潮流。1972年,哲学家Hubert Dreyfus发表了一篇名为《计算机所无法胜任的事情》的文章,对机器研究产生了深远的影响。一年后,英国数学家James Lighthill发表了关于机器智能发展现状的报告,得出结论——迄今为止,人工智能和机器智能领域所取得的成果,并没有产生预期的重大影响。
“神话”幻灭后,人工智能便迎来了第一个寒冬。在这期间,该领域的研究经费几乎全部放缓。就连曾经对“电子大脑”兴致勃勃的媒体,也失去了报道兴趣。虽然在20世纪80年代和90年代出现了小规模的“复兴”迹象,但AI或多或少还是成为了科幻小说家们嘴边的话题 ,而计算机科学家也尽力避免使用人工智能一词,因为害怕被视为“白日梦空想家”。
寒冬过后,深度学习出现引发媒体狂热追捧
人工智能第一个寒冬的结束,是在新一代研究人员发表关于成功应用“深度学习”技术的论文之后。虽然从本质上说,这也是一种类似于Rosenblatt感知器的数据统计技术,但计算能力的提高和庞大数据集的可用性,也意味着深度学习使语音识别、图像识别和语言翻译等任务变得切实可行。
而随着深度学习的火热,比如越来越多的企业斥资研究以及越来越多的学生展开学习,这也让沉寂了很长时间的媒体开始了大肆的报道。2013年,John Markoff在《纽约时报》上撰写了一篇关于深度学习和神经网络的专题文章《像人脑的计算机:从经验中学习》,不仅回顾了60年前的媒体炒作,还提出了新技术所带来的可能性。其中提到“在未来几年中,深度学习将会催生新一代人工智能系统,完成一些简单的人工任务,包括看、听、说和操控等等。”
从那时起,关于“AI末日”,“人工大脑”,“超级人工智能”和“令人毛骨悚然的Facebook 人工智能机器人”等夸张报道便开始每天出现在各大媒体上。而随着越来越多的媒体对人工智能进行大肆宣传,研究员的失望和沮丧也越来越明显。
让人感到不安的不仅是记者的“知识盲区”,而是总有无知媒体自称是AI领域的“大V”,但实际上,他们只会在其博客上引用马斯克的话进行内容质量低下的炒作。对此,Lipton表示:“人工智能要想取得实际进展需要一个清醒和知情的话题环境。但现在,大众了解的都是与事实不符的信息。对于信息的真伪与重要性,他们无从得知。”
Lipton并不是第一个对人工智能新闻炒作感到担忧的人。去年,美国机器人专家Rodney Brooks撰写了一篇文章,批评了麻省理工科技评论对人工智能未来发展前景的过度猜想。2013年,纽约大学教授Gary Marcus也写了一篇文章,认为炒作将带来不切实际的期望,进而让人工智能进入又一个寒冬。
媒体与研究员加强合作,引导行业正确方向
但对于Lipton来说,AI寒冬的风险并不可怕,可怕的是媒体将如何误导人们对人工智能的理解。为了解决这个问题,他在去年3月创办了自己的博客,试图能凭借一己之力缓和那些耸人听闻的AI新闻。
到目前为止,Lipton的博客得到了媒体的一些关注,并有了固定的读者群,但Lipton知道他的影响是有限的,“这个行业真正需要的是培训记者,让他们更诚实,在这种情况发生之前,我的博客只是一块鹅卵石,激不起千层浪”。
新兴技术领域的专栏作家Joanne McNeil对此十分赞同,她也认为科技新闻中存在很大的问题,记者自身素质需要提高。虽然她也会在Twitter上调侃一些带有《终结者》风格的文章,但还是不会直接批判科技记者,因为在她看来,人工智能炒作的原因之一是资源分配不均。
按照她的话来说,如果你将记者的收入与人工智能研究员的收入进行比较,很快就会清楚为什么新闻记者无法写出具有专业深度文章,毕竟他们不能与专业人士相提并论。研究人员可以从炒作中受益,但对想要对这项技术进行批判的记者来说,只是在“受苦“。事实上,相关知识过硬的媒体人很少,如果研究员真关心记者写出来的文章内容,那他们应该参与到新闻撰写中。同时,还要适当提高记者的收入,以便鼓励他们花费时间去认真挖掘与之相关的内容和专业知识。
虽然记者和研究人员之间更密切的互动,将是朝着正确方向迈出的一步,但澳大利亚国立大学工程与计算机科学教授Genevieve Bell表示,消除人工智能新闻的炒作是不可能的,因为关于电子大脑或Facebook机器人的文章并不是关于技术的,而是关于大众的文化希望与焦虑。
总的来说,现在,毫无根据的猜测与真正的研究之间的界限有些模糊,但从历史的发展角度来说,这种模糊的界限终究要明确起来,以便大众合理区分,哪些内容是重要的,哪些只是幻想。
(文中图片来自网络)
投稿、约访、合作,联系邮箱[email protected]
添加微信aixiaozhijun,更多交流或进AI观察团