论机器人的道德地位————一种关系式的道德解释学范式

作者简介:苏令银(1973- ),山东临沂人,法学博士,上海师范大学马克思主义学院副教授,主要研究方向:计算机伦理,人工智能伦理。上海 200234
人大复印:《科学技术哲学》2017 年 10 期
原发期刊:《自然辩证法研究》2017 年第 20177 期 第 36-40 页
关键词: 道德地位/ 道德关系/ 道德知识/ 机器/ 笛卡尔/ 现代性/ 现象学/ moral status/ moral relations/ moral knowledge/ machines/ René Descartes/ modernity/ phenomenology/
摘要:我们应该赋予机器人道德地位吗?这是一个一直困扰着机器伦理研究的问题。这里探讨了考虑赋予机器人道德地位的一种关系式方法。它关注道德关系和道德地位归属的可能性条件,并与基于属性基础上思考道德地位的标准方法处于临界的位置上。它不仅克服了标准的方法上的认识论问题,也可以解释我们面对机器如何思考、体验和行动,包括可以解释在理性和经验之间产生的分歧。这种超越笛卡尔的、关系式的道德解释学方法,它形成了一种思考道德地位和道德知识的不同范式。

机器人是纯粹的机器,还是具有应得的道德地位?或者它们和动物甚至人类的道德地位有相似之处?以往当被问到机器人是否具有道德地位,我们大多数会倾向于消极甚至否定的回答。[1]392一般不认为机器人具有道德地位。然而,人们经常把情绪和意图赋予机器人,把机器人不是仅看作“物”或“纯粹的机器”。作为思考机器人道德地位的标准的方法有严重的内部和外部问题:它具有认识论的困难和它无法理解思考与做之间的差距。为了应对这些问题,笔者提出一个不同的关系式的方法,这一方法通过开放非笛卡尔的道德认识论的可能性,以及确立思考道德地位问题的截然不同的范式①来克服这些困难。

一、标准的方法:机器人及其属性

1.关于道德地位的标准推理

通常认为道德地位取决于属性,比如,在动物伦理中的雷恩和辛格之间的经典辩论就是关于“什么样的属性是与道德有关的”:它到底是生命的主体?[13]132还是遵循边沁[2]24的观点,作为忍受痛苦的能力?[14]112虽然,就规范伦理学的理论而言都有不同的方法,都认为为了决定道德地位,应该研究一个实体是否具有道德意义上的相关属性问题。[7]至于机器人,人们认为相关的属性应该是意识或者忍受痛苦的能力。但是,在这些有关道德代理或忍耐力的讨论中,假定道德地位取决于实体具有特定的属性。[15]这种看法剥离了现象,并揭示了相关属性的存在,对于一些实体事实证明“是的,它们会说话”、“是的,它们可以忍受”等等。[16]231它们作为道德代理人接受了道德地位。其他实体,包括许多动物王国的成员,仍被排除在道德代理人的范围之外。

2.面临的问题

这种方法至少提出了两个认识论的问题:一是我们如何知道一个特定的实体X真的具有特定的属性P?怀疑论指出,我们永远不能确定其他实体的内部状态。因此,似乎很难建立第一个前提。二是我们如何确定一个特定的属性P能证明道德地位S?怀疑论者也认为,我们的预设可能是错误的。我们不能确定一个实体X具有道德地位S。此外,即使这些认识论的问题可以得到解决,我们可以实现特定实体的确定性的道德地位,这并没有解决推理和经验、思维和行动、信仰和感觉等之间的差距问题。我们应该如何应对这个信念和行动之间、推理和经验之间的差距呢?对这个问题,道德科学的回答是,我们对实体的道德状态的观点是错误的。因此,我们不能离开经验去认为机器人只是一台机器。我们应该考虑的不是属性问题而是关系问题。

二、一种关系式的方法:道德关系和道德地位归属的可能性条件

1.一种关系式的方法

在《日趋发展的道德关系》中,库科尔伯格提出了道德地位的关系式方法,认为道德地位是伴随着实体之间的关系而出现的[3]332。这种方法应用于机器人将意味着为了确定它们的道德地位,需要知道一个它与其他机器和人类的关系,我们需要知道它是如何被自然地、物质地、社会性地和文化性地被嵌入和构成的。道德地位取决于关系规范:关系性和关系式思维看起来似乎是好东西,它似乎很适合当前的道德关怀。因此,我们不仅要考虑实体之间的关系,也要考虑主体和客体之间的道德地位的关系。道德地位并不是一个在那里不需要讨论就可以定义的客观属性,道德地位发生在语言和思维之中。人类是道德地位归属的主体,客体道德地位的状态并不能独立于人类的主体性。实体以特定的方式呈现在我们面前,它的呈现取决于人类的主体性。应该关注主客体之间的关系以及我们的世界如何,我们如何在认识论意义上和道德意义上形成关联。

对机器人来说,这种道德现象学意味着我们可以承认机器人能够在不同的情况下和情境中,面向不同的人呈现出不同的方式。“仅仅是机器”的状态是不一定的,也不会天然就是正确的,这种外在呈现和建构本身就是有问题的。从道德上来说,重要的是实体是如何呈现的。[4]24因此,我们的道德关注从本体论转移到了认识论,从客体转到了主体。这使得我们在介绍主体的时候也要意识到,它不仅仅是理性的代理人,而是面对实体并与实体进行相互作用,并面对实体做什么(或者不做什么)的真实的人们。并且,主体所面临的问题不是道德地位的问题,而是一个与特定的实体相关联的现实问题。道德地位问题不是一个抽象的哲学问题,而是主体如何与现实相联系并如何应对的实际问题。

因此,这种关系关系式的、现象学的方法也为我们关注人与机器之间的道德关系留下了空间,这种人-机关系被解释为与主体性的纠缠。我们可以基于内格尔所说的“任何视角”,从外部描述这样一种关系,但也可以从现象学的角度诠释机器人。

2.运用列维纳斯和哈拉维的方法:机器人的面孔以及我们与机器人的纠缠

刚科尔(Gunkel)认为他的观点可以被看作是“列维纳斯倾向”,列维纳斯指出:“在道德中,关系是先在的;道德不是实体,而是体现在一种优先的关系中。”[9]78列维纳斯的方法强调在某种情境中与“他者”的伦理关系以及与“他者”之间“面对面”的重要性。[12]80正是在具体的物与“他者”面对的过程中,它才要求我的道德责任,从而也才产生了道德问题。

然而,至少有两个重要的方面我们必须超越列维纳斯。首先,列维纳斯保留的人类的道德,并把这种道德关系仅仅限定在人与人之间的关系,而我们在这里所提供的方法为考虑其他类型的关系和它们的道德品质打开了某种可能性。因此,道德地位的概念需要和人类与机器之间的交互性相联系来解释。我们需要更丰富的道德诠释学去揭示已经普遍存在的特定术语——“机器人”的内涵,我们可以从具体的人机互动关系出发。为此,哈拉维从人与动物的互动关系中去思考道德问题。她在《物种面对面》就探索了人与动物的互动,并对人类例外论观点提出了质疑。这种观点认为在人类和非人类的实体之间存在一个“巨大的鸿沟”[10]12,而它一直渗透在西方的思维当中。哈拉维的方法并非只是从事抽象的思维,她也同时讨论具体的故事和具体的人与动物的关系。哈拉维对德里达的评价是非常有益的。[8]122-123在德里达的《动物故我在》[5]36中,就反映了他的猫和猫给予他的反应。哈拉维指出:“由于他每天早晨和这只猫相互反应和有礼貌地跳舞,因此我准备相信他知道每天早晨如何与这只猫打招呼。但是如果是这样的话,它仅仅是体现了刻意的相遇,却没有在公共场合激发他的哲学,这确实是一个遗憾。”[10]23同样,一个人可能会对具体的人机之间的互动关系有所考虑,不仅只有机器人这个整体,或者作为这个地球上所有机器人寓言的单个机器人,而且是有关与这个机器人的互动关系,从某种意义上来说,这是一个关于人类可以和机器人跳舞的问题。

由于哲学和科学的传统,我们讨论道德地位问题时,更加普遍的是往往会忽视机器人的参与以及人机之间的互动关系。而只是关注“这个”机器人及其属性,并且通常会把它定义为一个先验的“机器”,这必将缩小可能的经验和解释的范围。即使是刚科尔的列维纳斯式的方法,这种方法可能会激励我们讨论机器人的“面孔”,但是如果不能打开另一种关于知识本体论的不同类型,将会陷入以逻辑为中心的对机器人“面孔”的描述之中。一种现象学意义上的人-机互动关系,需要依赖于体现关系性的知识。人们不应该只考虑“我-你”关系,道德地位的归属取决于许多条件的可能性,这种可能性的条件超出了“我-你”关系的范畴。我们所建构的人与机器人的关系是如何形成的,很大程度上不仅取决于我们如何谈论机器人,取决于我们人类如何与机器人生活在一起;取决于我们社会中技术的发展,也取决于我们的文化及其信仰的维度,是这些因素激发了特定道德地位的归因。我们的道德经验是涉及“我”的“个人”,但同时也涉及如何看待和评价其他相关实体。个人对机器人的建构,受到建构机器人的文化方式的影响,这不仅是一个术语表征的过程,而且也是一个生活的过程,它来源于生活,并整个改变了我们所称为的“文化”与“社会”。

受到哈拉维著作的启发,我们可能对机器人是否仍然是“机器”或是否是我们的“伙伴”一直存在质疑。当他们谈及“遇到他们的狗”[10]301的人们,人们是否会说某个人“遇到了她的机器”呢?在任何情况下,都需要打开过去的认知和解释学的可能性,比那些为了理解经验,依据伙伴关系去解释那些经历而赋予机器人“机器”术语更加有意义。

3.关系式方法对标准方法问题的克服

那么,关系式方法究竟如何克服了本文一开始提出的两个问题呢?

首先,自从“你对实体知道什么?”这一问题被指出已经“过时”的时候,认识论问题就被克服了。我们已经知道的实体已经处在某种关系之中,在谈论和思考道德地位问题之前,已经有一个关系存在。当我们思考机器人的道德地位的时候,一种关系性结构已经在那里预先存在着,这使我们认为机器人就只是“机器”或者一个“它”,而不是把它看作我们的“同伴”或“他”。已经有一种实在的人-机关系,而且其他可能的关系也在约束、形塑着这一具体的关系。标准的方法主要依赖于明确的命题性的知识,这种知识来自于科学和道德哲学,从而把道德地位问题理解为一种道德科学。

其次,这种关系式的方法使得一个“正确”的看待机器人和对机器人的“感知”之间不再具有鸿沟。一种道德品质的关系而不是机器人的道德地位,并且如果需要从根本上、道德上考虑机器人,其道德地位是生长在关系之中的,而不是在关系之前就先验地存在的。同时,根据道德地位归属可能性问题的分析框架和条件,可以解释那些源自我们的生命形式的关系结构中的思维和行动、理性和经验之间的鸿沟。现代文化决定了我们谈论“它们”的方式,决定了我们定义社会性的方式,也决定了我们标示世界的文化方式等等,这种方式很难与我们现在以不同方式对待机器人相联系起来。我们的道德思维发生变化的唯一方法就是如果这些结构关系发生了变化:如果这些关系成长为不同的道德关系。如果特定关系发展起来,以致于我们开始以不同的方式谈论特定种类的机器人;包括如果在社会生活世界中,技术和社会发展促进了这种关系的发展等等,然后我们也就会以不同的方式理性地思考它们。

4.非笛卡尔式的道德地位的可能性:一种不同的解释范式

首先,来看看对笛卡尔式的思考人-机关系的质疑。笛卡尔的思想被认为是清晰理解现代性问题的关键与核心。第一,当涉及的道德体验问题超越机器人被看作“纯粹的机器”的时候,是无法理解的。笛卡尔在他的《谈谈方法》[6]273中所构建的一方面是人类精神和肉体;另一方面是动物和机器之间的鸿沟。这种鸿沟导致了考虑人类和机器之间关系的二元对立的方式,这种二元对立使得我们很难把它视为另外的其他事物。这种哲学意义上的操作使得机器“不仅仅是一种排除其他的,而是排斥他者的特有机制”。[9]128这意味着不仅从道德地位排斥了机器,而且使用一个特殊的“机器”概念去作为排斥机器人、某些动物等的一种方式。认为它们是“机器”而不配享有道德地位,这表明现代伦理一直就是一种“机械性伦理”。这种笛卡尔式的排斥机制也表明了一个贯穿西方文化历史的更一般的当前反人类学的倾向。第二,认识论问题也有其近代笛卡尔思想的渊源。怀疑必然采取一种绝对的形式,要求我们应该追求绝对的确定性。怀疑论者除了自己的思想之外总是怀疑一切。“其他思维问题”是否适用于人类或机器人,可以被看作是一个笛卡尔式的程序应用的过程。

那么,应该如何才能超越笛卡尔式的思维模式呢?当谈到道德,唯一的“理性”或“道德命令”是一个已经存在于某种情况和关系中。认识到我们讨论机器人的特有方式是非常重要的。为了思考自主性智能机器人的道德地位,这种非笛卡尔的取向意味着我们不得不放弃决定他们的道德地位的道德哲学和道德科学计划,一个道德思维的新范式不应该被理解为现代性的。经验总是历史的,道德的变化总是受制于许多可能性的条件,这取决于我们的语言变化和我们共同的生活方式,等等。笔者希望关系性范式导致并源于但不限于其哲学姿态和语言关系范围。如果新的含义生长在那些更广泛的关系生态中而不是之外;如果他们来自于具体的关系而不是脱离经验,那么,德里达所谈论的“激进的解释”[5]160才可以成功。理性不是第一位的,道德地位既不能被声明也不能被决定。道德思维与其说是一种“决定谁或什么”是包括在“我们”之中的,不如说,在某种程度上大多数的影响是在这些道德边界的形成过程中。[8]186思考道德地位的活动本身是依赖于具体的动态关系和作为这些整体的关系。关系式的表达能够适用于有关人类的道德地位的问题。

三、结论

我们应该赋予机器人道德地位吗?在“标准”的、基于属性来思考道德地位方法的基础上,提供了一种关系式的道德解释学的方法,这种方法侧重于道德关系和道德地位归属的可能性条件。道德诠释学的提出,对于如何接近其他实体,以及作为道德主体如何与我们自己相联系,这比标准的方法更依赖于广泛领域的经验和知识。因此,标准的方法是不必要的,并且使得人类和非人类之间的道德现实分割开来,这种行为的方式导致了可能性的暴力。我试图表达一种可选择的范式,使我们问的问题不是关于机器人和其他实体的属性,而是应该称之为“机器”和“它们”,还是把它们看作“我们”的一部分?在人类和其他实体之间的道德关系中,道德思维扮演什么角色,我们需要什么样的道德知识去应对这些挑战。毕竟,应对这些道德挑战需要的是智慧,而不仅仅是某种词语的喜好。

注释:
①这种范式被刚科尔(Gunkel)描述为一个“道德思维范式的转换”。具体参见Gunkel,D.2013.Review of Mark Coeckelbergh’s growing moral relations:critique of moral status ascription.Ethics and Information Technology(published online 28Feb 2013)。
参考文献:
[1]Anders.Die Antiquiertheit des Menschen(volume I): die Seele im Zeitalter der zweiten industriellen Revolution[M].München:C.H.Beck,1956.
[2]Bentham,J.An introduction to the principles of morals and legislation[J].J.H.Burns and H.L.Hart(eds).Oxford:Oxford University Press,2005.
[3]Coeckelbergh,M.Growing moral relations:critique of moral status ascription[M].Basingstoke:Macmillan,2012.
[4]Coeckelbergh,M.Review of David J.Gunkel:The machine question:critical perspectives on AI,robots,and ethics[M].Cambridge,MA:MIT Press,2012.
[5]Derrida,J.The animal that therefore I am[M].Trans.D.Wills.New York:Fordham University Press.2008
[6]Descartes,R.Discourse on method[M].Trans.D.A.Cress.Indianapolis,IN:Hackett.1998.
[7]Floridi,L.,& Sanders,J.W.On the morality of artificial agents[J].Minds and Machines,2004(3).
[8]Gunkel,D.The machine question:critical perspectives on AI,robots,and ethics[M].Cambridge,MA:MIT Press,2012.
[9]Gunkel,D.Review of Mark Coeckelbergh’s growing moral relations:critique of moral status ascription[J].Ethics and Information Technology,2013(2).
[10]Haraway,D.J.When species meet.Minneapolis[M].MN:University of Minnesota Press,2008.
[11]Himma,K.E.Artificial agency,consciousness,and the criteria for moral agency:What properties must an artificial agent have to be a moral agent?[J].In:L.Hinman,P.Brey,L.Floridi,F.Grodzinsky,L.Introna.Enschede:Center for Telematics and Information Technology,2007.
[12]Levinas,E.Totality and infinity[M].Pittsburgh,PA:Duquesne University Press.Trans.A.Lingis,1969.
[13]Regan,T.The case for animal rights[M].Berkeley:The University of California Press,1983.
[14]Singer,P.Animal liberation[M].New York:Random House,1975.
[15]Sullins,J.P.When is a robot a moral agent?[J].International Review of Information Ethics,2006(6).

你可能感兴趣的:(论机器人的道德地位————一种关系式的道德解释学范式)