从冲突到和谐:智能新文化环境中人机关系的伦理重构

从冲突到和谐:智能新文化环境中人机关系的伦理重构

徐瑞萍 吴选红 刁生富

摘要:在智能新文化环境中,以人工智能为主导的新一代人机关系,不同于以往工业革命时代的人机关系。机器智能愈来愈逼近人类智能,甚至有超越人类智能的势头,人机关系变得愈来愈紧张。因受到人类理性的滥用、利益的零和博弈、智能机器的奴役,以及人工智能机器异化的渗透,导致人机关系的矛盾冲突愈来愈明显,需要从技术文化哲学的视角辨别人机关系的伦理本质,以期从敢于批判与重塑现实、对人机伦理进行赋值、对非理性主义进行批判、在拥抱理性选择中坚守“帕累托最优法则”、以社会规范弥补伦理失范加固伦理根基、以文化和谐超越文化冲突等维度,对人机关系进行伦理解构与伦理重构,从而走向人机关系的和谐之境。

关键词:智能新文化环境 人机关系 伦理重构 冲突 和谐

    尽管文化的定义千差万别,但若要给出一个最广义、最简单的定义,则可以说文化就是“人化”,而人总是生活于一定的文化环境之中。在漫长的历史长河中,工具以及与其关联的机器是最伟大的“人化”力量。自人类使用工具伊始,广义的人机关系也就产生了,并在人类历史年轮里刻画出光辉灿烂的精神印痕。人类对工具的发现、发明和发展,是人机关系亘古不变的主题。如今,以人工智能为主导、由蓬勃发展的“大智云移”和快速到来的物联网、区块链等构成的新兴智能技术群,正重塑人类的生活形态、充盈人类的精神世界、拓展人类的发展空间、应对人类的风险危机,创造出一个人类生存于其中的智能新文化环境。在这个“一切智能化、智能化一切”的新文化环境中,“智能机器”愈来愈深度地介入到个体、社区乃至全域公共生活之中,已然形成了一种形影不离、难分难舍的矛盾关系——人机关系也再一次因受智能技术文化的冲击而核变,给人类的生活、工作与思维带来了巨大的机遇与挑战。人类与日益智能化的机器的关系,怎样从冲突走向和谐,是人类在智能时代面临的重大问题。而从技术文化哲学的视域分析智能新文化环境中人机冲突的问题表征与肇因、探寻人机和谐的伦理重构,是一个十分有价值的课题。


一、人机冲突的问题表征

    不同于“控制论”(Cybernetics)中“人机交互”的核心思想,持“人机冲突”观点的专家认为,在智能新文化环境中,人与机器是从两个相反的方向去认识外界、学习技能、解决问题,人与机器的关系是相互排斥、决然对立的存在。事实上,人工智能已不仅仅成为蒸汽动力或电力一样的“通用技术”,而且在本质上成为一种左右人类福祉和社会重大风险的一种“守门人技术”;人类必须最终掌握钥匙并选择其旋转的方向。

1. 智能机器的优势使人处于不自在的状态

    智能机器的优势表现为:人工智能被要求在人们无法定义自己的执行能力和对自己的执行感到不安的领域为人们服务——在这些领域中,人们希望有一个整洁、结构良好的解决方案,并且认为采用机器的部分解决方案比使用自己的解决方案更接近“正确”。正是在这种机器的“选择”优于人类的“选择”的过程中,人类开始对自身存在的价值和意义产生怀疑,进而向机器宣示主权——人才是人机关系的核心。机器不该让人类自身感到无价值感,从而沦为“无用阶级”。此外,机器作为“强者”统治“弱者”的工具,以绝对的优势加固了人类不同群体之间的数据鸿沟,加剧了人类生存的“马太效应”。因此,人们开始产生对机器的抗拒和排斥心理。日本机器人学家森政弘(Masahiro Mori)的恐怖谷理论可以再次拆解人机关系冲突的构成要素。森政弘假设,机器本身是模仿人类的形体和运动特征而生成的,所以人们难免会对机器产生积极的情感,但这种积极的情感是有限度的;一旦机器与人的相似程度超过了一定的临界值,这种情感就会变为消极的情感,从而使得人们对机器产生厌恶和恐惧。[3]不断进化的机器的认知系统和处理算法与人的分野越来越模糊,“智力”与“效率”的差异越来越少,人在心理上对机器产生的排斥心理也越来越微妙,人们即将进入恐怖谷。

2.“人本主义”在与“机器中心主义”的对抗中不断处于下风

    在2014年斯蒂芬·霍金宣布“人工智能的全面发展将成为人类末日”之后,人类顶尖棋手与AlphaGo的博弈最终以惨败而告终这一事实,进一步加剧了人们对终将被AI奴役的恐惧。社会的呼声越来越大:人类不能在未来与机器平分天下,更不能接受被机器统治的现实。机器本身的觉醒与启蒙,以及人类的焦虑,使以人为中心的“人本主义”价值观逐渐坍塌。正如雷·库兹韦尔(Ray Kurzweil)在《奇点临近》中的预言一样,在人类的未来文化环境中,智能机器“能融合传统的生物智能与机器智能的双重优势……技术变革的速度将不再受限于人类智能的增长速度。机器智能在反馈循环中不断提高自己的能力,并将远远超出无机器辅助的人类智能。”如果这种预言真的如期实现,那么机器中心主义将被彻底加强和巩固。

3. 人的异化使人机冲突异常化

    在万维网时代,借助计算机,人们在网络上构建抽象的社会机器,人进行创造性工作,而机器完成管理任务,机器也增强了人和社会的网络化。在强人工智能时代即将到来之时,机器逐渐独立于人而存在,而人类仍然习惯于以人际关系的旧范式处理新型人机关系,这会产生对人机集成这一强大机制的忽视,进而陷入伦理学视域下的“囚徒困境”,导致人的欲望在机器上的投射,人们希望通过赋予机器以独立的意识而实现人类动物心理的满足——在现实中表现为“强者”对于“弱者”的绝对统治的欲望。但人们又无法确保自己一定能成为操纵机器的强者,反倒开始担心他人领先一步实现这个目标,就是在这种矛盾心理的驱使下,产生了使人类自己沦为弱者而被机器统治的尴尬境地的焦虑。

4. 人机关系的冲突源于人类的不妥协

    正是前述矛盾心理的驱使和抗争,人们提出了人工智能威胁论,以期从人与人工智能的危机关系中突破人类社会本身的不平等。同理,人们提出人机关系平等也是人类对现实压迫的不满所激起的一场人道主义论争,根源在于人类自身对平等的不懈追求,对社会资源公平占有、分配以及使用的权利的获取。人生而自由,却没有自由生存的权利,人类坚信自己终将突破这种现实束缚。总而言之,人机关系冲突论的提出是人际关系之间的又一次社会大范围的信任危机与精神危机,是对人类自身晦暗心理的提前窥视。这样做的目的,是期望通过前期的伦理解构与伦理重构的方式,把社会的善传递到每个个体的行为中去,实现社会的“善的普世化”,实现全人类的和平共处,而不是等待着人工智能机器被人类的野心所利用而引发人类又一次的法西斯战争。因为当其真正到来之时,可能用原子弹也无法终止其对弱者的绝对统治和剥削——它们疯起来连自己都伤害。

二、人机冲突的问题

    

    肇因人工智能机器人既然是工具,那又何来威胁,何来人工智能机器人与人类的冲突(以下简称人机冲突)?这当然还得回到“人类中心主义”的立场中去寻找可能的答案。人机冲突的原因有很多,但根源性的诱因主要体现为如下五个方面。

1. 感性吞噬理性误导理性滥用

    马克思指出“感性必须是一切科学的基础。科学只有从感性意识和感性需要这两种形式的感性出发。因而,科学只有从自然界出发,才是现实的科学”。然而,很多人却忽视了从“自然界出发”的观点,而是从自己的感觉和想象出发,导致感性认识的膨胀,最终吞噬了理性,模糊了人类的理性与非理性的界限。之所以理性会导致人机关系的伦理困境,是因为理性的边界划分不清晰,同时也是源于技术的发展对人类感性的腐蚀,因为技术的发展难免会使“我们的灵魂正是随着我们的科学和我们的艺术之臻于完善而越发腐败的”。简而言之,模糊的边界与技术的反噬导致理性滥用。古希腊哲学家普罗塔哥拉认为:“人是万物的尺度。人是存在者存在的尺度。人是不存在者不存在的尺度。”虽然这个观点带有强烈的主观唯心主义色彩,但其与《吴越春秋·勾践阴谋外传》中提出的:“道出于天,事在于人”的观点不谋而合。以上中西观点的相似已基本道出理性滥用的真谛——事在人为。由此可见,理性滥用是人机关系伦理困境的主要诱因之一。

    什么样的人机关系伦理才是理性的伦理规范呢?界限很难划清,结果就是,某些人很容易站在片面的视角上形成一种强烈的主观主义观点。我们认为,这样的主观过于偏激,而且带有强烈的感性色彩,所以,应该充分认识客观的人机关系,在客观世界中为主观认知寻找灵感。从整个人类社会发展历史来看,人总是活在特定的历史情境中,无法从全局的视角看清所有的事实真相,很容易把不理性的行为赋予想象而使其合理化,从而酿成灾难。因此,在处理人机关系问题的过程中,亟待对人机关系伦理的伦理道德界限作出清晰界定。

2. 私欲攻心造成利益的零和博弈

    人机关系的对立与对抗是离间人机关系的零和博弈的利益同谋。人机关系的和谐利于提高物质资料与精神资料生产效率,但一些人以其先天的资源优势恶性扭转人机关系和谐的局面而成为机器的操纵者,在自私心的驱使下,开始利用机器去无限制地剥夺和谐的人机关系营利的剩余价值,使得原本和谐的人机关系因外界因素的干扰而终止。毋庸置疑,外界的条件刺激势必促使人机关系中的受害者与盈利者开始做出与机器不和谐的行为的条件反射。

    强者将机器变为利器对抗机器的操纵者,弱者因其无助感不断内化而更加无能为力,选择逃避机器,最终导致人机关系冲突的不断重现。此外,机器因其绝对的优势冲击人类以人为中心的世界观、人生观和价值观。无论是机器的主人还是与机器平等关系的人,最后都因机器的突出优势而开始“嫉妒”机器的“才华”,人类的智慧给人类自身带来的利益被机器瓜分,人类要么选择远离机器,要么选择不断地发展机器来战胜原来的机器以期凸显人类智慧的不可替代性优势,但终究还是在人机关系中处于弱势的地位。

3. 单向度的人不断演化甘愿沦为机器的奴隶

    人类的“自我放弃”与“自我放纵”将自我捆绑于机器工具之上而沦为被奴隶的处境。脑科学家大卫·吉尔里(David Geary)有一个惊人的答案:“你可能不希望听到这个答案,但我认为大脑缩小的最好解释就是蠢蛋进化论(idiocracytheoery)”也就是说,我们正在变笨。脑科学家为什么会得出这样的结论呢?原因就在于人类已经从“听天由命”过渡到了“人定胜天”的历史阶段。人类依靠科技的力量在很大程度上摆脱了大自然的束缚,只需要投入生存的斗争中,而不需要更多的智慧和思考。在物质资料生产过程中,人只需要通过简单的操作(比如打开电源)就可以获得需要复杂的生产工艺生产出来的产品,人在生产过程中解放的不仅是劳动力,还有脑动力,因此说人类正在变笨。原因在于,变笨的过程正是人被机器奴隶的过程。奴隶的后果是什么?后果就是人离开机器不能生存,需要不断从机器人手中索取生存的资源,所以不断对机器寄予更高的期望。最终导致人类自身的机器依赖症,并通过各种病态的行为表现在人际交往中,对人际关系的和谐造成了巨大的冲击,今天的“低头族”“自拍瘾”“手机依赖症”“网瘾”“机器人成瘾”等,都是人被机器奴隶的直接表现。因此,在人机关系伦理重构的过程中,如何摆脱机器对人的奴隶,并重新获得能够独立思考的能力,并投入正常的生活等,都是值得思考的问题。

4. 人的异化催生机器的异化

    机器的异化是人机关系威胁论的支撑元素。最早的机器是与人类和谐共处的,但随着人类赋予机器的智能与智慧越来越多,机器所拥有的人的意志越来越多,并最终从人的操纵下摆脱出来,变成与人类创造机器的动机完全相排斥的力量而存在,甚至最终从机器的视域又掉头将人类沦为自己的附庸——机器异化。这是当前人机伦理困境最突出的难题,也是机器威胁论屹立不倒的重要支撑要素。最具代表性的机器异化就是超强人工智能(类人机器)的出现,由于其是人造智能,就决定了它具有比人更高的竞争能力。那么,怎样才能避免机器不伤害人的问题自然成为人们讨论的焦点,也是人机关系中最为突出的伦理危机。

    早在1978年,日本就发生了世界上第一起机器人杀人事件;前苏联国际象棋冠军古德柯夫同机器人棋手下棋连胜局,机器突然向金属棋盘释放强大的电流,将这位国际大师杀死。上述不幸只是人机冲突的消极影响中最微小的一部分被表现出来。机器的发明创造本来是为了让其作为辅助人类弥补自身缺陷的工具,如今却会反过来伤害人类,人们就开始困惑和担忧,究竟需要一种什么样的“规则”和“惩罚机制”才能避免类似的情形再次出现?机器的异化是人的异化的结果,但最终以机器的异化为表现形式呈现出来,这让人们不得不再次思考机器的伦理问题,因为人机关系中的伦理问题不能单从人的伦理规范来解说,也需要对人以外的机器的伦理进行规范,这就扩大了人机关系伦理的视野。因此,如何从人机关系中对人和机器的伦理生态进行重构,是当前摆在人类面前的最为重要的问题。

5.“两种文化”的冲突导致人机关系的疏离

    在智能新文化环境中,导致人机关系疏离的“两种文化”主要表征为智能新文化与人类原有文化。从二十世纪五十年代以来,人工智能技术在其六十多年的发展过程中,迅速向社会的各个领域渗透和蔓延,到目前为止已经表现为一种“无处不在、无时不有”的普遍存在的智能新文化现象。尤其是在本世纪的头二十年,智能新文化的渗透威力已经超越了人类本身的抗拒能力——不管是否愿意,不管是主动还是被动,只要是生活在现如今的智能新文化环境中的人,无不都深受其渗透和浸染。然而,就在这两种文化进行渗透与融合之余,由于其存在的巨大差异,加剧了文化之间的冲突,从而造成两种文化的冲突代替了和谐、狭隘代替了包容、压力代替了张力。最终,不得不承认的事实是,在这两种文化的冲突下,人不能理解机器,机器也不能理解人——人机对立与对抗由此而生。在人类的文化传统中,隐藏着人的固有倾向和对传统的眷恋。艾里希·弗洛姆(Erich Fromm)在其《健全的社会》一书中指出,“文化通过使个人在政治上、经济上自由,教导个人独立思想的方式,将他从独裁主义的压力下解放出来,希望个人能感觉到‘我’,是自己力量的中心和行动的主体,并以这种方式来体验自己”。换言之,人类在经历了两次工业革命之后,逐渐从中认识到机器对人的奴役力量是如此之巨大,它直接能将人改造为马尔库塞所说的那种“单向度的人”。所以,我们为此必须要重新反思工业文化,重新反思各种文化中的人类原有文化,以期重新塑造人类自身的文化。也就是说,我们要在历史的经验教训中找回人类自身的尊严和价值,并在这种价值体系中,让人们重新感受到“我”的存在。但也正因为如此,在长期的工业文化塑造中,人类的这种文化中心主义思想被进一步巩固和加强,进而破坏了人类原有文化与智能新文化进行和平共处的基本条件。因此,不难想象,人们在此种文化背景下生存,自然容易形成以自我为中心的价值观。由于这种中心主义的人类原有文化不断地得到巩固,我们就越容易形成凯文·凯利(Kevin Kelly)所指出的那种思维框架:当人们长期浸泡在一种文化中时,会更“倾向于从旧事物的框架中来观察新事物”,以至于造成大家对“未来的展望,实际上会曲解新的事物,好让它适应我们已知的事物。”所以,当智能新文化不断地崛起之时,我们就很难融入相应的智能新文化环境中,因为我们对它的态度是不屑一顾的,实际上也是将之曲解为只能“适应我们已知的事物”。这就必然导致人们原本所具有的“认知模式”“思维方式”与“沟通对话”方式的失效,人们也就更容易对智能新文化环境产生抗拒、排斥和不解。

    智能新文化存在失控的可能性。从某种程度上来说,由于智能新文化环境本身的超越性,它在模仿、延伸和增强人类原有文化的优越性的同时,人们还在不断地赋予它以“某种独特的生命”。但正是由于人们的这种不断的追求,“在将生命的力量释放到我们所创造的机器中的同时,我们就丧失了对他们的控制。他们获得了野性,并因野性而获得一些意外和惊喜。之后 , 就是所有造物主都必须面对的两难窘境:他们将不再完全拥有自己最得意的创造物”。所以说,从目前来看,我们企图完全掌控正在飞速发展的智能新文化环境,似乎显得有些苍白无力。毕竟我们人类刚开始从智能新文化中获得“强连接”的益处,人们自然不愿意再回到20世纪的那个原子化社会中去。按照克莱·舍基(Clay Shirky)在《认知盈余》一书中的说法,“社会生活的原子化使我们远离了参与文化,以至于当它回归时,我们需要用‘参与文化’这样一个词汇来描述它”。如此说来,目前的整个人类原有文化,似乎存在一种“参与”的可能性,因为人工智能技术的“三起两落”,在其第三次崛起之时并没有太多的人会认为它能够持久地发展下去,但事实正好相反,人们甚至高呼智能新文化给人类社会赢得的各种生存、发展的时间和空间,是过往的任何时代都不曾给予的馈赠。也就是说,在智能新文化环境中,人们的生存与发展的更多可能性是来自于智能新文化,而人们只是在不断地“参与”和“接受馈赠”,这其间不乏反映出人类原有文化的脱节成分。最终,这种文化的脱节逐步演化为智能新文化环境中的人的脱节与人类原有文化的落后,由此而展现出一种人类“中心文化”走向“边缘文化”的风险,而智能新文化本身却在这种风险中不断获利,成长为一种主导人类原有文化的“核心文化”。而且,按照凯文·凯利在《必然》一书中的观点:“从技术上讲,想象未来100年是不可能的。我们因此对未来盲目。这种盲目或许只是现代社会难以逃避的苦恼。或许在文明和科技进步的这个阶段,我们进入到了一种永恒而无止境的现在,不会有过去和将来。”那么,我们在接下来的智能生活之中,人们自然就很难在人类原有文化与智能新文化之间找到一个持久稳定的平衡点,并将长期处于“一种永恒而无止境的现在”。而这种“现在”在霍金和马斯克看来,应该就可以理解为一种智能威胁,它将人们的“过去”和“将来”都囚禁了,人们只能不停地在发展自身的过程中去“参与”和“理解”智能新文化。更可怕的是,智能新文化似乎永远也不会懂得它的“造物主”一直在追赶它。

三、人机和谐的伦理重构

    在人类的历史发展长河中,始终有机器(工具)的不断进化在其中扮演着重要的角色。在人与机器之间,有冲突的时候,更有和谐的时刻。无论是人机冲突还是人机和谐,虽然有时机器还会沦为权利的附庸而导致局部的文化冲突,但无疑已经证实了智能文化的发展给人类社会带来的巨大的福祉。

    特别是人工智能时代以来,科技的突飞猛进亦是如此——达·芬奇手术机器人的发明与应用、人工智能无人驾驶汽车的上路、以人工智能为支撑的新型人机交互模式促进的教育模式变革、更为舒适的人工智能远距离人际互动模式、以人工智能机器为支撑的“机器换人”战略、以人工智能为支撑的无人超市、人工智能在重大疫情防控中发挥的巨大作用等等,无不都在以一种全新的形式改变着人类的生存空间,使得人类的生活形态得以重塑、精神世界得以充盈、发展空间得以拓展、风险危机得以应对。

    在以往数个技术变革的时代,人们总是一边享受着科技革命为自身带来的福利,一边在无情地批判和嘲讽科技的阴暗面。人工智能时代亦是如此,人工智能的发展具有改变人类社会生活形态的强大力量,同时它也具有毁灭人类的巨大可能性。但单从人工智能本身而言,它并不具备社会价值选择的能力,全凭使用它们的人类的理性判断和价值选择。这就是说,是人,而不是人工智能,必须成为价值的最终根源;是人的最优发展,而不是生产的最大化,成为所有计划的标准。归根结底,人工智能与人类的冲突如果发生,那也仅仅是因为人类在工具理性与价值理性的冲突中,毅然选择了工具理性而忽视了价值理性,才最终导致了人工智能机器的人文价值关怀丧失——人工智能成为价值的最终根源。

    人机冲突真正的问题根源在于人类自身。如果人类在其中扮演的角色总是探寻某种“自证合理”的理由,那么人机冲突就正是源于对机器强权的某种人权化倾向和对技术革新的外在依托。人机能否从冲突走向和谐,抑或一直保持人机和谐而不会走向人机冲突,都必须要回到“人类中心主义”中去追寻人机和谐的缘由和进路,从而达到重构人机和谐的伦理生态的目的。

1. 敢于批判与重塑现实

    对现有的人机关系存在的伦理失范的批判,又从其困境的泥潭中开辟出一条新的路径并引导更多的后来者不偏不倚,就会出现人类行为的伦理重构与集聚效应,这是对比尔·盖茨提出的“现实优于虚拟原则”的完美运用。整体来说,人类是相信未来的,这个信仰无疑是人类自我拯救的基础,对未来虚拟世界的人机关系的模拟和想象,把未来可能的现实通过时间快速推进的原则无限的逼近未来现实,把未来的可能现实当做当前现实来对待。这就是人的智慧,尽管人类预测的“世界末日”的到来,地球照样地转动,但人们还是乐此不疲,原因就在于人类的危机意识在时刻警醒自己,迫使自身要对瞬息万变的外部环境做出反应。这样做虽然很多时候没有产生太大的积极影响,但至少也没有产生消极的影响。这就足以证明这个方法论对于人类在协调未来人机关系中具有举足轻重的作用,可谓曰:用未来重塑现实的原则。

    重塑现实首先要敢于批判。批判是对人机伦理危机不合时宜的批判,只有通过发展一种新的合时宜的人机伦理道德,才能称其批判具有力量。否则,在大多数情况下只能称之为狂热而显苍白无力。客观而言,能从“局外人”的视角去看“此山中的风景”者毕竟少之又少,自然而然也就罕有人知道比现在更好的突破点在哪里。既然如此,就应该为没落的人机伦理困境的突破和超越贡献绵薄之力,将“弗兰肯斯坦情结” 伦理焦虑扼杀在摇篮里。

2. 对非理性主义的批判不得不为

    对发展超强人工智能(类人)的批判。机器威胁论的罪魁祸首就是人类对超强人工智能的担忧和焦虑,正如南京大学周志华教授所说“严肃的研究者就不应该去碰强人工智能”,人类对于超强人工智能态度就应该是“不碰”。人类深知“阿西莫夫三原则”在强人工智能时代救不了自己,因为历史是由强者撰写的这个道理所有人都懂,但是为什么机器威胁论还在被人们如火如荼地讨论着呢?原因在于对于机器的发展创造具有巨大的利益诱惑,人们总是相信自己可以克服风险而获得巨额汇报,这个自信用在超强人工智能的发展上就是一个极其不理智的行为。

    超强人工智能极具威胁性,其威力可以直接导致人类走向毁灭,这样的风险人类为什么还要去尝试呢?超强人工智能的危险在于其容易被不法分子利用。然而,这只是危害中最轻微的。随着AI容量的提高,其应用领域将进一步增长。具体来说,相关算法可能会开始更大程度地优化自身,甚至达到超人的智慧水平。最为焦虑的是,机器学会了达尔文进化论,它们认为人不是自己的竞争对手,就该被淘汰。这种技术进步很可能呈现我们面临着前所未有的道德挑战。许多专家认为,AI构成全球风险甚至大于核扩散。许多研究人员甚至认为,自我改进的AI可能成为比人类强大得多,我们无法阻止它实现其目标。如果是这样,如果AI的目标和我们不同,那么这对人类而言是极大的灾难。一个建议的解决方案是在我们尚具备控制能力的时候,对AI的目标系统进行编程。

    对知其恶而不弗之的批判。陈希夷《心相篇》指出:“知其善而守之,锦上添花;知其恶而弗之,祸转为福”。然而,在当下人机关系冲突中,人们对被机器奴隶的行为视而不见。譬如,当前的人机关系中,人与手机的关系最为复杂和普遍,人离不开手机,虽然说其对人的伤害不可避免,但是人们为什么还是会走在车道上低头玩手机?为什么在火车轨道上与驶来的火车玩自拍?为什么在夜晚宁愿牺牲眼睛和睡眠也要熬到深夜还在逛朋友圈?以上诸多行为,每当与人提到行为背后的不利因素时,人们都会侃侃而谈,然后话题结束又继续开始投入手机的怀抱。可见,人的这种明知不可为而为之的行为,是人被机器奴隶最典型的特征,人类需要三思,在处理人机关系时要坚持有所为有所不为的原则是重中之重,万万不可把霍金先生所说的“有可能这是人类最后一次的自我批判”中的“有可能”演变为“已经”。

3. 人机伦理赋值通往人机和谐

    赋予人和机器各自属性的伦理规则是通往人机和谐的必经之路。在人机关系冲突中通往人机关系和谐之路,主要从两方面实现人机关系伦理重构。一方面是对人类自身进行伦理规范,赋予人类自身获得“责任伦理”能力的灵感。对于人的伦理规范与伦理责任能力的培养,可以通过利益诱导的方式实现。“利益诱导”的教育方法在人机关系伦理的教育中,对于人的伦理规范具有重要作用,通过运用利益诱导的方式,运用伦理博弈论的方法论突破伦理的囚徒困境,对人进行伦理知识教育与非零和博弈的抗争,使人形成对人机伦理的合理认识和未来图景,然后内化为美德,最终转化为遵守人机伦理的良好品格。人是人工智能机器的尺度。其中,尺度二字主要是指人机伦理中人对于机器的伦理遵守,可见人机关系中人所扮演的角色是极其重要的。同时,当下还需要世界各国不断地发展“人因工程”,以期促进人们在认识人与机器以及环境的关系中,从一个更为客观的视角树立正确的人机关系伦理“三观”,从人的精神层面形成深刻的人机和谐的认识论和方法论。

    另一方面,是对机器进行伦理规范。科技哲学家雅克·埃吕尔(Jacques Ellul)曾指出:技术(机器)的特点在于它拒绝温情的道德判断。技术绝不接受在道德和非道德运用之间的区分。相反,它旨在创造一种完全独立的技术道德。舒尔曼所说的技术道德,就是机器本身所应具有的伦理道德和社会规范。由于机器具有独立于人而存在的属性,人在发明和创造机器之时不仅自己需要秉承善的伦理价值,更需要将善的意志以合理的方式嵌入机器中。因此,我们务必要通过机器嵌入人类的伦理价值观、发展机器伦理学、赋予机器伦理判断的能力的方式方法,规范机器的行为,在避免机器伤人的问题上具有预防功能。人类制造机器并决定其特性和功能,人类思维和AI永远是模拟与被模拟、操控与被操控之间的关系。基于此,在当前阶段的机器伦理主要是被人的伦理规范所决定,而机器的伦理行为只是人的伦理在机器上的表现,故机器的伦理规范工作,人类不能袖手旁观,而是主动并且积极地去推动实现机器伦理向善。

    值得注意的是,就前面两方面而言,对于人机关系中的人与机器的伦理重构,社会公众容易从两个维度独立而论,却容易忽视另一方面的互补性质,或者是将两方面对立而论,激化了原本沉默的人机关系隐性矛盾,无形间沦为人机威胁论的幕后推手。为了避免此类情形出现,从理论层面和规范层面提出各种伦理原则以用于实践时,务必考量其现实可能性并寻求折中的解决方案;应摆脱未来学家的简单的乐观主义与悲观主义立场,从具体问题入手强化人的控制作用和建设性参与;要从人机协作和人机共生而不是人机对立的角度探寻发展基于负责任的态度的可接受的人工智能的可能。通过如上几方面的人机关系的革命性认识,人机关系势必会回归到和谐的摇篮中。

4. 在拥抱理性选择中坚守“帕累托最优法则”

    明晰善与恶的分界线是人机伦理关系中理性选择的前提。在人机关系伦理中的理性选择就是一种工具性理性,即不选择沦为机器的奴隶,也不选择使用机器去奴隶和束缚人,这就需要分清人机伦理关系中的善与恶。在人机关系伦理中关于善与恶的标准并不复杂,主要的界定方式就是对人机关系中的主体意志的评判,评判的标准是:是否同时满足不伤害他人也不伤害自己这一“双重逻辑”的同时实现人类价值的最大化,即是在重复囚徒困境中摆脱囚徒困境的限制走向帕累托最优。在人机关系冲突论中,正是因为没有严格坚守善的标准,只是将其行为嵌套在社会大的伦理标准框架中,将其中部分人机关系所带来的恶的后果诡辩为是其对社会的善作出的牺牲,其实就是对其恶的行为的包容和接纳,究其根本是伦理的可塑性造成伦理惩戒力量的缺失。

    基于融合与协同,人与智能机器实现了一种共生关系。因此,在处理人机关系冲突的事件中,要恪守善的底线,不仅要做到不给自身带来伤害,还要做到不对他人的利益造成损失,即“己所不欲,勿施于人”。当然,如果化解冲突会牺牲部分人的利益,也要将其伤害的程度降到最低,保证其在善的前提下做出正确的价值判断,由于不可避免地会因一些不可控的客观因素所致的损失,亦要采用合理的方式方法实现个体存在损失的最小化,以及社会群体的利益最大化。

5. 社会规范弥补伦理失范加固伦理根基

    人机伦理自身的缺陷无法以自省和觉悟的方式获得灵感,需要凭借“自我精神”之外可以斩获伦理自由与解放的法则。伦理学一个主要与核心的问题,就是要解决个体至善与社会至善的关系,要能够劝诫个体认同善良意志,同时 , 一个个具有善良意志的人能够并且可以实现一个美好的社会。人人相信道德法则,就必定可以造就一个“人是目的”的美好社会。但是,由于伦理道德对于人的规范存在先天的不足,美好社会的实现道路坎坷。这就说明,仅仅通过人机伦理规范是很难实现人机关系和谐的,需要增加社会规范以弥补从机器的设计研发、制造到投入市场等多个向度的人机伦理的缺陷。

    正因如此,法律的存在就有其存在的必然性。当然,不是将伦理规范中的社会规范与其对立而论,而是为了更清楚的让人们认识人机关系中伦理规范之构成要素。人机伦理规范主要是以善和恶作为其评价的标准和界限,采取社会舆论、社会习俗以及个人内心信念等方式,对越轨的社会行为进行谴责和制止,但因其不具有社会规范的强制力,再加上人们对善与恶的评价标准因人而异,所以发展社会规范来弥补人机伦理规范不可或缺。人机伦理失范主要应对策略从三层面进行探讨:

    首先,是个体层面:具备伦理意识是个体层面为人机伦理重构做出贡献的前提。人机伦理失范是社会无意识的结果,而社会无意识又是个体的无所作为的衍生物。如果能对社会中的每个个体做出相应的伦理规约,那么机器的设计研发者、制造者、使用与受益者将能在最短的时间内敏感地感悟到自身的责任与权力,从而使用有效的方式维护自己的权利与利益,在人机关系构成的过程中明确与内化自身的责任。

    在人机伦理重构过程中,研究设计者自然具有较大的话语权。无论是从其权威方面还是影响力方面,都具有非同凡响的效力,其与使用者和受益者相较而言,自然肩负更多的责任与历史使命,因为“当代伦理学的核心问题就是责任问题”。但是,研究者又该被赋予何种禀赋和意识,才能在人机伦理失范背景下为重构人机伦理做出贡献?当然不免会提及研究者的伦理意识,各个研究者在进行相关的人机伦理研究时,应该密切坚持技术与伦理同行的正确导向,能够明确地熟悉技术、伦理与政治之间的密不可分的关系,同时还应清楚技术伦理的有效运用离不开制度规范有效支持的内部运行机理,以便于研究者自身更有利于从智能新文化环境中寻求多种资源合力,进而提升个体主动参与人机伦理治理的能力,为人机伦理重构做出属于自己的贡献。如果一个机器研究者能具此类的伦理意识,伦理失范的困境在个体层面已经存在突破半百的可能。

    此外,制造者和使用者所扮演的角色也不得不提。在二战时期的法西斯暴行中,顶层上司的命令下达之后,其下的士兵(类比使用者)和下级军官(类比制造者)没有一个人敢于站出来提出质疑。诚然,从军事服从的视角可以说他们是好士兵和好军官,但是最终的结局呢?众所周知,是无数人为此付出了生命的代价。因此,在人机伦理关系重构的过程中,机器的制造者和使用者依然应该具备明辨是非的能力,从人机伦理意识、伦理行为、伦理价值等多方面不断地武装个人的思想及头脑,以期能迅速感知人机关系中的越轨行为,并通过运用大数据时代的各种发声媒介合法地表达自己的看法和观点,不能做魔鬼的代言者和协助者。

    其次,是制度层面:制度得益于善法得以建构,反哺于人机伦理,惩戒恶的行为和颂扬善的行为。一是完善与人机关系相关的法律。在人机伦理重构的过程中,需要将人机关系的各种恶的形态编写入法律中,对导致人机关系冲突的各种情形进行有效规约;二是严格完成法律的贯彻执行任务。社会规范作为人机伦理关系的补充,为避免法律流于形式,需要专门的人机伦理专家对人机关系的冲突作出伦理规范与法律的强制执行,绝不饶恕故意挑起人机关系冲突的恶意行为逍遥于善法之外;三是健全奖罚制度。善法的目的在于实现社会的善,就需要对有违人机伦理道德的行为进行惩戒,是突破人机伦理关系的局限性因素和对人机伦理关系的优越性因素的颂扬,以矫正其行为的偏差,这是达到善的目的必要条件。否则,就是对人机关系中恶的行为的包容,更是对善的漠视。

    最后,是组织层面:环境中塑造的个体具有群分效应,便于刺激失范的个体行为复归。组织层面介入人机伦理失范,是从“环境决定论”的视角获得的灵感。经过深思发现,从个体层面探讨人机伦理关系的伦理困境存在着风险,单从人类某个独立而固定的个体出发都没有人敢保证这个具体的个人已经完全内化人机关系伦理的优良品质,更何况社会是由无数个相互关联的个体构成的人类集群。所以,把除个体之外的大环境进行改造是对于个体伦理重构的补充和完善。因此,通过从组织层面对社会的人机关系伦理进行社会的再教育与伦理再造显得尤为必要。一方面,社会可以倡导家庭对于人机关系伦理的重要性,促使家庭给予其成员养成人机伦理意识与行为的伦理基础进行启蒙。同时,通过进入学校课堂的专业伦理价值教育,特别是人因工程学的普世化教育,对于当下智能新文化环境中的人机伦理重构具有决定性作用;另一方面,可以通过政府决策与相关政策的方式(比如出台《机器伦理的伦理守则》),引导人机关系的发展方向,辅之以社会舆论媒介等媒体工具加以人机关系的社会宣传教育,站在宏观的视域重构人机关系大环境,回应人机关系失范现象。

6. 从文化冲突到文化和谐

    从一定程度上说,智能新文化环境中的人机冲突,根源主要在于因为“文化的差异”而导致的“两种文化”之间的冲突。人们之所以会认为智能新文化与人类原有文化之间存在冲突,是因为人们秉持一种“二元论”的观点看问题,无限制地将两种文化之间的差异进行放大,以至于智能新文化中的“失控”风险被无限地放大造成人类被反噬;同时又将两种文化之间的相似之处无限制地缩小,以至于两种文化间的融合的可能性变为了一种不可能,进而引发不必要的恐慌。然而,人们却忽视了两种文化相互融合的一个最为重要的原则:“文化之间的差异既是造成冲突的根源,又是达成一致的金钥匙。”因此,在智能新文化环境中,要实现人机关系的和谐,就要力争实现从“两种文化的冲突”走向“两种文化的和谐”。

    首先,人类应该树立正确的文化发展观。树立正确的文化发展观,就是要坚持人类原有文化与智能新文化相互统一的辩证关系,两种文化应该是同向同行的发展,而不是相互排斥和相互冲突的倒退。智能新文化作为一种人类原有文化的延伸,它本应属于人类整体文化中的一部分,虽然其发展成熟后具有相对的独立性,但从目前来看,它自身并未出现像凯文·凯利所预言的那种智能新文化的自我更替的现象与事实,这就决定了智能新文化的独立性并不是完全意义上的独立,而是附属于人类整体文化之中的一类文化。因此,我们不应该将之与人类本身的文化进行对立,更不应该利用智能新文化的优势与价值来对抗人类原有文化。相反,人类更应该坚信智能新文化对于人类原有文化而言是一种希望的象征,它给人类带来了很多超越自身局限的契机。阿尔文·托夫勒(Alvin Toffler)在其《第三次浪潮》中就曾说,机器是“能探索出各种可供选择的决定可能造成的后果 , 而且比一般的分析更为系统,更为完整。它甚至能够通过识别新的和迄今尚不为人们注意的人与资源之间的关系,对某个问题的解决,提出富于想象力的建议。”而且,由智能机器所带来的一种新的文化品种——智能新文化,在这种智能新文化环境中,它反倒“能使我们发展新的神经元和大脑皮层 , 这也不是不可能的。一个比较灵活的环境 , 能造就比较灵活的人。”如此可见,带有极具包容性的智能新文化,它给予人类原有文化的价值,并不局限于一个宏观的意义领域,而是一种每个人都可以切身感受到的现存机遇。

    其次,人应为融入智能新文化环境做准备。智能新文化环境的形成,一定程度上打破人类原有的“生命体验”与“生存经验”边界的结果,由于不断地受到这种文化环境的冲击,人们最为本能的生存冲动与原始生命体验被激发出来,生存意识与危机意识让人类原有文化开始变得“警惕”。从历史的维度看,这种人类原有文化心理确实沦为一种紧张人机关系的诱因,但我们的认识不应该仅限于此,而是要将认识转移到关注两种文化的“已有共性”和“发展共性的可能性”等两个层面上来,在承认两种文化冲突的必然性的同时,更多应该看到这种必然背后的人类原有文化的突破和超越,具体地表现为超越文化的封闭性、单一性和落后性,习惯于从多种文化视野中感受、认识与习惯我们周围环境的积极文化。与此同时,就我们个人而言,应该在“承认差异、允许失败”的基础上,保持对智能新文化的无限热爱之情,并从提高自身的智能素养层面进行深度思考,不断地培养个人对于智能新文化、行为、理性和感受能力、理解能力与批判能力。同时,还应该积极支撑发展“负责任的人工智能”。人类应该对自己的文化发展负责,也更应该为自己亲手创造的智能新文化环境负责。多一份发展的责任,我们就可以惊奇地发现更多现存的遗憾有待填补。而如果我们“不在心中制造待以填补的缺憾,我们就无法拓展自己,更无法拓展我们的社会,我们正在拓宽我们的边界,也在拓展存放自我身份的容器。这过程会痛苦不堪,其中定然会有泪水和伤痛。”但是,些许的“泪水和伤痛”,本就应该成为人类为融入智能新文化过程中的“代价”。试问世间有“不劳而获”的成长吗?如果有的话,那就应该是在“坐以待毙”中实现的反向成长吧。

    最后,是搭建沟通两种文化之间的桥梁。消解两种文化之间的冲突、狭隘和紧张关系的良策,应该是搭建沟通两种文化的桥梁,只有在持续不断地沟通交流的过程中,才能更好地实现人类原有文化与智能新文化的交融与繁荣发展。也只有如此,才能提高两种文化间的包容、和谐与无私的积极属性,实现文化的和谐代替文化的冲突、文化的张力代替文化的压力之目的,实现两种文化之间从物质的结合向精神的结合的伟大飞跃。两种文化的汇合更重要的是文化精神上的汇合,它们应当汇合于既超越狭隘的科学主义,又超越狭隘的人文主义的人文精神,进而最终实现改善当下的这种紧张的人机关系之境。塞缪尔·亨廷顿(Samuel Huntington)说:“现代社会可能由于两个原因比传统社会彼此更加相似。现代社会之间相互作用的日益增多虽然可能不会产生一个共同文化,但它确实促进了技术、发明和实践从一个社会向另一个社会的转移,其速度和程度在传统世界中是不可设想的。”这样,在人类原有文化与智能新文化相互交融发展的环境中,由于连接人与机器之间的沟通渠道的不断增多,这种便捷的沟通路径必然为人与周围的智能新文化环境的交往提供强大的技术支持。那么,一个真正的智能新文化环境就此形成,人与机器之间在不断的交往中达成了某种共识,人与机器之间也“通过超链接所实现的‘分享’方式,又创造出了一种全新的思想。这种思想一部分来自人类,一部分来自机器,前所未有 , 举世罕见。网络已经释放出了新的变化。”

    从目前来看,这种变化已经切实地让我们感受到,它开始助力在人与机器之间形成一种新的文化传统,这种传统无时无刻不在告诉我们,在未来的世界中,机器将越来越像机器,或者是机器越来越像人,人则始终越来越像人,而不是部分现有的人类社会文化中所传播的那种“机器越来越像人,人越来越像机器”的人类原有文化式微观。“我们的未来是技术性的,但这并不意味着未来的世界一定会是灰色冰冷的钢铁世界。相反,我们的技术所引导的未来,朝向的是一种新生物文明”。这是一种令人激动的和充满期待的智能新文化景观。

参考文献:略

本文摘自:自然辩证法通讯2021年4月第43卷第4期(总272期)

你可能感兴趣的:(人工智能,makefile,relativelayout,weex,base64)