讨论▍人工智能应该有“意识”吗?这是一个错误的问题

讨论▍人工智能应该有“意识”吗?这是一个错误的问题_第1张图片

AI会不会进化成终结者?

图 电影《终结者》本文由36氪编译组出品 来源36氪


编者按:人工智能技术的快速发展,它会具备人类意识吗?它应该具备人类意识吗?成了人们讨论的话题。但在丹尼尔·丹尼特(Daniel C. Dennett)看来,人工智能会具备人类意识,是一个错误的问题。这一观点来自他今年出版的《Possible Minds: Twenty-Five Ways of Looking at AI》一书,丹尼尔·丹尼特是塔夫茨大学的 Austin B.Fletcher 哲学教授、认知研究中心的共同主任。文章发表在《连线》杂志,标题为“Will AI Achieve Consciousness? Wrong Question”。

人工智能应该有“意识”吗?这是一个错误的问题


1950 年,当“控制论之父”诺伯特·维纳(Norbert Wiener)在撰写《人有人的用处》(The Human Use of Human Beings)一书时,真空管仍然是主要的电子构件,而且只有几台真正的计算机在运行。


但是,他对未来(也就是我们现在)的想象,细节令人印象深刻,几乎没有明显的错误。


他比任何其他早期人工智能哲学家都更清楚地认识到,人工智能不仅会在许多智能活动中模仿和取代人类,而且还会在这个过程中改变人类。


他写道:“我们不过是一条不断流动的河流中的漩涡。我们不是一成不变的存在,而是模式的自我延续。”


例如,当有吸引力的机会比比皆是时,我们往往愿意付出一点点代价,并接受一些小的,甚至是微不足道的商业成本,以获得新的权力。


很快,我们就变得非常依赖于我们的新工具,以至于我们失去了在没有它们的情况下茁壮成长的能力。进而,选择就会成为强制性的了。


这是一个古老的故事,在进化史上有许多著名的场景。


大多数哺乳动物,可以合成自己的维生素 C,但是灵长类动物选择了以水果为主的饮食,失去了这一天生的能力。


我们称之为人类的自我延续模式,现在依赖于衣服、熟食、维生素、疫苗、信用卡、智能手机和互联网。即使不是今天,也是明天,还要添加上人工智能。


维纳预见到了这种初期状态存在的几个问题,而艾伦·图灵(Alan Turing)和其他早期对人工智能持乐观态度的人,基本上忽视了这些问题。


他说,真正的危险在于:


尽管这些机器本身是无能为力的,但它们可能被一个人或一群人用来加强对其他种族的控制。


政治领导人可能不是通过机器本身,而是通过狭隘和漠视人类可能性的政治手段,试图控制他们的人口,就好像他们实际上是被机械地构想出来的一样。


果然,这些危险现在无处不在。


例如,在媒体领域,在发烧友和电影爱好者眼中,数字音频和视频的创新,让我们为放弃模拟格式付出了一小部分代价,而作为回报,我们可以轻而易举地以近乎完美的保真度再现录音。


但是有一个巨大的隐藏成本。奥威尔的“真理部”(乔治·奥威尔的小说《一九八四》中,专门制造假新闻的部门)现在有了切实可行的可能性。


人工智能技术创造了几乎无法察觉的伪造品,这将使过去 150 年来,我们认为理所当然的调查工具变得过时。


我们是简单地放弃短暂的摄影证据时代,回到人类记忆和信任提供黄金标准的早期世界,还是会在真理的军备竞赛中开发新的防御和进攻技术?


我们可以想象回到模拟胶片曝光,保存在“防篡改”系统中,直到向陪审团展示等等。但是,在有人想出用怀疑的方式感染这样的系统之前,还需要多长时间呢?


从最近的经历中得到的一个令人不安的教训是,破坏信誉的任务比保护这种信誉的任务要简单得多。 


维纳从最普遍的角度看待了这一现象:“从长远来看,武装我们自己和武装我们的敌人没有区别。”信息时代也是虚假信息时代。


我们能做什么?在我看来,一个关键的短语,是维纳未经核实的观察,如上,“这些机器”是“无能为力的”。


正如我最近一直在争论的那样,我们正在制造工具,而不是同事,最大的危险是没有意识到这种差异,我们应该努力强调这种差异,通过政治和法律创新来强调这种差异,并为之辩护。


人工智能目前的表现形式,是寄生在人类智力上的。


它不分青红皂白地吞噬人类创造者创造的任何东西,并从中提取出可以在那里找到的模式——包括一些有害的习惯。


这些机器(还)没有自我批评和创新的目标、策略或能力,无法通过反思自己的想法和目标来超越数据库。


正如维纳所说,它们是中立的,不是被束缚的智能体或残缺的智能体,而是根本不是智能体——没有能力被呈现给它们的“理性所感动”(正如康德所说)。 重要的是我们要保持这种状态,这需要做一些事情。


从长远来看,“强人工智能”或通用人工智能原则上是可能的,但不可取的(下面有更多介绍)。


今天实际上可能出现的更受约束的人工智能,不一定是邪恶的。但是它也带来了一系列的危险——主要是它可能会被误认为是强大的人工智能!


二、


许多外行和内行的人,都低估了今天的系统和主导大众想象的科幻系统之间的差距。这种差距很大。让我们看一下 IBM 的沃森,它可以暂时成为我们想象中的一个有价值的里程碑。


它是一个跨越许多人的大规模研发过程的结果,得益于几个世纪的智能设计,它消耗的能量是人脑的数千倍。


它在《危险边缘》(jeopardy!)节目中的胜利有点牵强,但这是一次真正的胜利,这得益于《危险边缘》节目中公式化的限制,但为了让它参与竞争,甚至连这些规则都必须修改。


其中一个折衷方案是:放弃了一点多样性,一点人性,最后得到了一场大众喜爱的表演。


尽管来自 IBM 的误导性广告暗示沃森具有通用的对话能力,但将沃森变成一个貌似合理的多维智能体就像是将一个手工计算器变成沃森一样。


沃森可能是这种智能体的一个有用的核心部分,但它更像是小脑或杏仁核,而不是大脑——充其量是一个特殊用途的子系统,可以发挥很大的辅助作用,但远不足以完成构建目的、计划以及在对话体验基础上进行深入挖掘的任务。


为什么我们要从沃森身上创造出一个有思想、有创造力的代理人?


也许图灵关于操作测试的绝妙想法,著名的图灵测试,把我们诱入了一个陷阱:至少要在屏幕后面创造一个真实的人的幻觉,架起跨越“恐怖谷”的桥梁。


这里的危险是,自从图灵提出他的挑战——毕竟,这是愚弄评委的挑战——人工智能的创造者们就试图用可爱的类人动作,比如迪士尼化的效果,让外行着迷并解除他们的武装。


德裔美国计算机科学家、麻省理工大学的荣休教授约瑟夫·维森鲍姆(Joseph Weizenbaum)的 ELIZA,一个非常早期的聊天机器人,就是一个基于这种肤浅的幻觉制造的例子。


他对自己可笑、简单而肤浅的程序能轻易说服人们进行严肃的心灵对话感到沮丧,哪怕是它第一次执行任务。


他的担心是对的。 


如果说我们从一年一度的罗布纳奖(Loebner Prize)限制性图灵测试竞赛中学到了什么的话,那就是即使是非常聪明的人,如果他们不熟悉计算机编程的可能性和快捷方式,也很容易被简单的技巧所迷惑。


对这些在人工智能的“用户界面”上进行掩饰的方法,人们的态度从轻蔑到庆祝不等。


他们普遍认为这些技巧并不深奥,但可能很有效。一个非常受欢迎的态度转变,是坦率地承认人性化的掩饰是虚假广告,是应该谴责而不是鼓掌的。


那这怎么可能实现呢?一旦我们认识到,人们开始在很大程度上基于人工智能系统的“建议”做出生死抉择,而人工智能系统的内部运作在实践中是深不可测的时。


我们就可以找到一个很好的理由,那些以任何方式鼓励人们对这些系统更加信任的人,应该在道德上和法律上承担责任。


人工智能系统是非常强大的工具。因为非常强大,以至于即使是专家也有充分的理由不相信他们自己对工具所作出的“判断”。


但是,如果这些工具使用者,想要通过在未知领域使用这些工具而获得经济或其他方面的利益,他们需要确保他们知道如何负责任地做到这一点,并最大限度地控制和证明这一点。


正如我们对药剂师、起重机操作员和其他因为错误和误判会产生可怕后果的专家进行授权和许可一样,我们也会对这些系统的操作者进行授权许可和绑定。


在保险公司和其他保险商的压力下,迫使人工智能系统的创造者,竭尽全力寻找和揭示他们产品中的弱点和漏洞,并培训那些有资格操作这些系统的人来警惕它们。


人们可以想象一种倒置的图灵测试,在这种测试中,评委受审; 直到他或她能够发现弱点、系统中的漏洞,才会发放操作许可证。获得评委资格证书所需要的心理训练是很苛刻的。


通常情况下,当我们遇到一个似乎是智能体的东西时,把人类的思维能力归于是一个物体的冲动,几乎是无法抗拒的。


事实上,能够抵制把一个表面上的人当作一个人来对待的诱惑,是一种丑陋的天赋,散发着种族主义或物种主义的气息。


许多人会发现,培养这种无情的怀疑主义方法在道德上是令人反感的,我们可以预见,即使是最熟练的系统操作者偶尔也会屈从于与他们的工具“交朋友”的诱惑,哪怕只是为了减轻他们在履行职责时的不适。


无论人工智能设计者如何小心翼翼地清洗他们产品中虚假的“人类”符号,我们都可以预见到,一个繁荣时期,充满了快捷方式、变通方法和容忍对系统及其操作者的实际“理解”的扭曲。


电视上宣传的新药的已知副作用列表长得令人无语,但这与强制性披露的特定系统无法负责任地回答的问题相比,将相形见绌,“忽视”其产品缺陷的制造商将被处以重罚。


人们普遍指出,当今世界日益严重的经济不平等,在很大程度上是由于数字时代的企业家积累的财富; 我们应该制定法律,为了公共利益将他们的巨额财富托管起来。


三、


我们不需要人造的有意识的智能体。 已经有太多具备自然意识的智能体,足以处理任何应该留给这些特殊和特权实体的任务。


我们需要的是智能工具。工具没有权利,不会有可能受到伤害的感觉,也不对无能用户强加给它们的“滥用”产生怨恨。


不制造有人类意识智能体的原因之一是,不管它们可能变得多么自动化(原则上它们可以像任何人一样具有自主性、自我增强性或自我创造性) ,如果没有可能被放弃的特殊规定,它们不会与我们这些具备自然意识的智能体分享我们的脆弱性或我们的死亡。


我曾经在塔夫茨大学(Tufts University)的一个关于人工智能体和自主性的研讨会上,向学生们提出了一个挑战:给我一个可以与你签订有约束力合同的机器人的规格说明书,它不会代替一些人类所有者,而是自己。


这不是一个让它理解条款或在一张纸上操纵一支笔的问题,而是作为一个道德上负责任的智能体拥有和应得的法律地位的问题。


年幼的儿童不能签署这样的合同,那些法律地位要求他们接受这样或那样的监护人照顾和负责的残疾人也不能签署这样的合同。


对于想要获得如此崇高地位的机器人来说,问题在于,就像超人一样,它们太过于坚不可摧,无法做出可信的承诺。


如果他们食言,会发生什么? 违背诺言的惩罚是什么? 被关在牢房里,还是更有可能的是被拆除?除非我们首先安装人工智能不能忽视或禁用的人工漫游功能,否则被关起来对人工智能几乎不会构成任何不便(鉴于人工智能的狡猾和自知之明,从系统上讲,很难将其作为一个万无一失的解决方案)。


而且,如果人工智能设计和软件中储存的信息得以保存,那么拆解人工智能(不管是机器人还是沃森这样的智能体)也不会杀死它。


数字记录和传输非常容易,这一突破使软件和数据实际上是不朽的,将机器人从脆弱的世界中移除,至少是通常想象中的机器人,带有数字软件和记忆。


如果这不是显而易见的,想想如果我们能每周为人们做“备份”,人类道德会受到怎样的影响。


周六,在没有蹦极绳索的情况下,头朝下地从一座高桥上跳下。周日早上,你恢复周五晚上的备份,你将不会记得这一切,但是你可以欣赏你明显死亡的过程。


因此,我们要创造的不是,也不应该是一个有意识的人形生物,而应该是一种全新的实体,没有良心,没有死亡恐惧,没有令人分心的爱与恨,没有个性(但是各种各样的弱点和怪癖,无疑会被认为是系统的“个性”) :真理盒(如果我们幸运的话)几乎肯定被散布的谎言所污染。


如果我们不去幻想人工智能将奴役我们的奇点,那么我们将很难学会与它们一起生活。


“人类”对人类的使用将很快再一次永远地改变,但如果我们对自己的发展轨迹负责,我们可以掌握舵柄,在一些危险之间腾转挪移,向前发展。



640?wx_fmt=png

新年新气象,36大数据社群(大数据交流、AI技术学习群、机器人研究、AI+行业、企业合作群)火热招募中,对大数据和AI感兴趣的小伙伴们。增加AI小秘书微信号:a769996688说明身份即可加入

讨论▍人工智能应该有“意识”吗?这是一个错误的问题_第2张图片

欢迎投稿,投稿/合作:[email protected]

如果您觉得文章不错,那就分享到朋友圈~


你可能感兴趣的:(讨论▍人工智能应该有“意识”吗?这是一个错误的问题)