电脑应用与道德责任
以往对于道德责任的传统哲学探讨主要集中在人类部分的道德行为上。在对谁应该对道德责任负责的解释中,通常将人类主体所做的行为描述成是具有明确界定并具有直接结果的。然而,在如今这个技术迅猛发展的社会中,如果不对使道德责任复杂化了的技术人造物进行考虑而要对人类行为做出恰当的理解是不可能的。通过与这些人造物的互动,他们影响了我们做决定的过程和结果。这些人造物即限制、阻拦、抑制又说服、促进、允许特定的人类认知程序、行为或态度。例如,互联网搜索引擎以一种特定的顺序优先呈现信息,而影响了网络使用者所看到的。就如Verbeek指出的,这样的人造科技产物是“能动的一起塑造在世界中的人类的感知和行为,经验和存在”的“能动中介”。作为能动中介,他们改变着人类行为的特征,并因此挑战着道德责任的传统概念。
电脑处理在理解道德责任方面的科技规则时呈现了一种特别的例子。随着这些科技在日常行为中越来越成为一种必要的组成部分,使更多的决策制订程序更加自动化,并持续改变人们的沟通方式和人与人之间的关系的同时,它们也使得在道德责任的分配问题上本已困难重重的难题更加复杂化。在每天生活中电脑科技的持续增强的普遍化,这些科技持续增强的复杂化,以及他们所提出的新的可能性都在引发新的问题:对于在互联网上发布的信息应由谁负责?当一个自动驾驶的载具引发了事故的时候应由谁来负责?当电子记录丢失或出现错误的时候责任在谁?当电脑技术的开发者所开发的产品在出现不良后果时,他们应在多大程度上以及多长的时间内对其负责?而随着电脑技术越来越复杂越来越自动化,人类还能或者还应当对这些科技的行为负责吗?
此词条将会首先对电脑处理对道德责任的传统概念所提出的挑战进行考察。然后,将会对不同作者对这些挑战所提出的两种不同道路进行评论,这两种道路分别为(1)对道德主体的观点进行再探讨,(2)对道德责任本身进行再思考。
1. 对道德责任的挑战
1.1 成因的内容
1.2 对结果的考虑
1.3 自由行动
2. 电脑可以成为道德主体吗?
2.1 作为道德责任主体的电脑
2.2 创造自动道德主体
2.3 对道德主体概念的扩充
3. 对道德责任概念的再思考
3.1 责任分配
3.2 作为实践的责任
4. 总结
1. 对道德责任的挑战
道德责任相关于人类行为以及其意图和结果。总体来说,当认为一个人或一群人要负道德责任的话,就要那些出于他们自愿的行为具有可以使其受到恰当指责或赞扬的道德上的明显结果。因此,当某人看到一个人溺水的时候,我们会将跳进水中试图去救那个人作为此人的道德责任。如果此人将那溺水者从水中拉出来的话,我们似乎会赞扬这个人而如果此人拒绝伸出援手的话,我们可能会指责之。对道德责任的归因,在个体或人群或那些被这些个体或人群的行为所影响了的某人或某物之间建立了联系。做了某个 行为并且引起了一些事情的个人或群体通常被叫作主体。而受到这种行为影响的个人、群体或物则被叫作受体。即可以前瞻性的也可以回顾性的来根据主体与受体之间的道德责任以建立联系,也就是说,有时对于责任的描述涉及对事件中作错的是谁以及谁应受到惩 罚做出解释,也同样可能是关于前瞻性的确定在未来此人应履行的义务及责任,以及此人所应做之事。
然而,对应归因的道德责任所发生时的情况并不总是清晰的。一方面,在什么使得道德责任与其它类型的责任得以区分的概念上存在着不同的意思及持续的辩论。这个概念总是与愿负责任、应负责任、要负责任、角色责任以及因果关系相互纠缠有时相互重叠。而对于像哪种情况应承担对道德责任的分配,主体是否需要自由意志,以及人类是否是唯一的能够承担道德责任的主体这样的意见上都是不同的。
另一方面来看,由于在人类行为中所包含的复杂性,特别是在如今的科技社会中,要在主体与受体之间建立一种直接联系是困难的。在工作被分配到人类与科技组件之间的社会科技系统中的个人与组织,普遍上是以偶然方式在互相影响着。持续复杂化的科技使得将谁或者什么负有责任的辨别难题加剧。当有事发生后,需要对于所发生之事进行回溯性解释,而系统越复杂,对于责任的追究也就越具有挑战性。实际上,Matthias认为存在着一个日渐增长的责任缝隙:电脑技术越复杂,人类对于这些科技上的行为的直接控制或干预就越小,我们对这些技术所应负的人类责任也会越少。
日渐增长的电脑技术的普遍性,对于理清它们所附加的道德责任以及对之的正确归因提出了各种各样的挑战。要解释电脑处理何以使得对责任归因复杂化,我们必须考虑那些使人对之负责的状况。尽管在这个问题上有着持续的哲学上的辩论,但大多数的道德责任分析至少共有如下的三种状况:
1. 行为结果人之间应当具有因果联系。通常只有当一个人对于事件的结果具有一些控制的时候,他才对之负责。
2. 主体要能认识到自己的行为,并且具有考虑其结果的能力。对于那些人们对其行为将会引发的伤害问题不能具有认识的话,我们倾向于免去对他们的责备。
3. 主体应能够自由的选择以特定方式行动。也就是说,如果人的行为完人由外部力量所决定的话,那让其对行为的伤害问题负责是无理的。
细看这三种情况,可以看出电脑处理使得这些情况的每一种的适用性都复杂起来了。
1.1成因的内容
要使人对某事负有道德责任,则其必须能够对此事施加影响。如果某人对事故的发生无力掌控,也不能通过以不同方式行事来规避事故的发生,则对其责备似无道理。
然而,电脑技术能够混淆某人之行为与最终结果之因果联系。对于引发电脑相关的灾难如飞机坠毁事件的链条的追踪,通常会引向许多方向,而很少是一个单一错误或灾祸的结果。技术事故通常包括了设计者、工程狮、技术猿、监管者、管理者、用户、生产商、业务商、批发商甚至政策制定者在内的对于电脑系统的使用及维护,在事故发展中积累的错误、误解或者不同个体们的行为疏忽而造成的。
在发展中的多数行为者的卷入以及技术部署引起了被称为“多手”的问题:当多数个体都对事件的结果起作用的时候,就很难确定谁对结果负责。对于电脑处理的多手问题的一个经典例子是故障辐射治疗机器Therac-25.这个由电脑控制的机器被设计用来对癌症患者作辐射治疗以及当作X射线机。在19世纪80年代的两年期间,此机器对六位患者大幅施药过量,并最终导致了其中的三人死亡。这些事件是由一系列因素共同造成的,包括了软件错误、不恰当测试和保证、对可靠性过过度宣称、不友好的界面设计、对软件设计的过度自信以及不充分的调查或事后的事故报告。另外,在对这些事故的分析中,Leveson和Turner推论认为在这些事故中很难只责备一个人。其中所包含的所有的行为或大意与造成事件的其它因素都不能被证明是致命的。这并不是说在此事件中没有道德责任,就像许多行为者都可以以不同的方式行为一样,但很难回顾性的找出可以对结果的修正以及对问题的回答的合适的那个人。
增加进来的多手问题是由电脑处理所创造的在人与其行为结果之间的现实与物理距离。而这种距离模糊了行为与事件之间的因果联系。电脑科技在时间与空间上延长了人类行为的触及。通过社交媒体与沟通技术,人们可以与处在世界另一边的人相互。卫星与高极通讯技术允许飞行员在他们的控制基地在世界的另一边来遥控一个远程控制无人机。这些科技使得人们可以在很远的距离间行动,但是这种大距离将将原始行动与最终结果之间分离。当人使用科技造物来行使一个在几千英里外的行为时,那个人或许并不知道其行为将会受到影响的人,也不会直接或者仅仅是部分的体验到行为结果。这会降低那个人的责任感,也会干扰他对自己行为重要性理解的能力。相似的,一个自动决策制订系统的设计者对决策的制订在事情还没发生之间就已经决定了,但他们很少能看到这些决策会怎样冲击到那些受到影响的个体。他们在对系统的编程中的原初行为将可能影响到数年后的人。
在使用技术上的多手问题和距离影响阐释了在道德责任中的科技造物的调解功能。科技造物将它们的创造者与使用者们的各种不同意向归结在一起。人们在会在世界中造成一些影响的物体上创造与部署科技。往往在经理或客户的要求下,软件开发者们开发一个网络过滤器,用来对用户屏蔽一些特定内容,并且影响这些用户能看到什么或不能看到什么。软件在设计之初已经被其开发者、经理或客户内设了各种各样的意图;软件随时准备着被输入特定指令,按照设计者对合适信息的看法来运行。因此,道德责任的认定也就不得不要看这些造物的因果性效用以及它们对特定的人类行为是如何限制或允许的。然而,尽管科技造物可能影响并塑造人类行为,却并不能决定人类行为。它们并不是不理为什么、由谁以及在什么境况下被使用的意味相同、工作相同的孤立设备;他们具有灵活的解释性或者多重稳定性。尽管科技的设计提供了一系列的行为状况,而这些行为的意味与形式则是人类主体在特定情境下如何选择使用这些技术的结果。人们使用科技的方式常常是不被科技的设计者所预见的。电脑技术的中介作用将在行为与结果之间的因果联系的追溯工作复杂化,并且同样也将对责任的预见复杂化。
1.2 对结果的考虑
就像电脑技术塑造人们如何理解与体验世界,他们也影响了对道德责任的分配这种第二种情况。为了做出恰当决定,一个人必须能够意识到她的行为的结果并能考虑之。她也要能够意识到他的行为所可能产生的风险及伤害。而如果人们对他们的行为所可能产生的伤害之前并不知情,那么让他们与之相关的某些事负责则是不公平的。
一方面,电脑技术可以帮助使用者考虑他们的行为或选择之导向。他们帮助使用者获取、储存并分析数据与信息。例如,一个通常提及的救援工作者或部队所使用的远程遥控机器人的优势是这些机器人使得他们的操作者能够获取那些缺少这些机器人就不能获取的信息。它们使得它的操作者们看到“下一个山头”或“下一个转角”,并且也帮助操作者对特定战术决定所可能产生的结果做出反思。相似的数据分析工作可以在那些人类数据分析者所不能人工获得模式的大宗数据中找出模式。
另一方面,由于电脑的使用,使得使用者对自己行为结果的考虑或理解的能力受到了限制。这些从来都不会绝不出错的复杂技术,日益的将自动程式隐藏在交互界面之后。一个可以对电脑技术如何对结果的理解做出限制进行阐释的例子是:在美国的几个州被法官用来作假释决定和判决的有争议的风险评估工具。在2016年,一个公民社会组织在基于一个由算法对7000名被告的风险评分的分析认为,评分对累犯的反映情况很差,并且似乎有种族歧视。不论其发现是否正确,这里所特别相关的是,由于算法是有专利的,因此法官对算法对可能性的计算并不是完全理解的。法官将他们的审判基于他们并不完全理解的算法给出的建议上。而这也是当下大多数电脑技术的情况。使用者仅仅看到电脑所实行的许多计算中的一部分,并且对于它们大多数的计算根本就不知道;他们通常上只能部分的理解他们的电脑屏幕上的信息所依据的假设、模型和理论。
许多电脑系统的不透明性可能防碍对信息的正确性和相关性的评估以及可能会防碍使用者做出恰当的决策,人们对自动系统有着依赖过渡与不足的倾向。例如,一个人的以负责的态度来行动的能力可能当她在不相信有着错报率较高的自动系统时而受到影响。在Therac25的案例中,机器操作者之一的证词中说她对于机器给出的许多的隐秘错误信息已经习惯了,并且大多数也没有引起病人安全问题。她倾向于忽视这些信息,并因此没有注意到机器已经被设定为对病人用药过量。而对自动系统的过多的依赖同样也会引发灾难性的结果。在1988年,Vincennes号导弹巡洋舰U.S.S.在错误的将一架客机误判为一架攻击型军用飞机后,将一架伊朗民用喷气式客机击落,杀死了机上的290人。这辆巡洋舰装备了宙斯盾防御系统,这种系统可以自动跟踪瞄准入侵导弹和敌方飞机。对引起事件的原因的分析表明,对于宙斯盾防御系统的过度自信使得本可以对之干预的人没有那样做。附近的其它两艘战舰已经正确的认识别出飞机是民用的,然而他们并没有质疑Vincennes认为是军用飞机的判断。在一个稍后的解释中,其中一个附近战舰的Lt. Richard
Thomas声称,“我们叫它机器巡洋舰…它似乎总是有着预测…它似乎总是在告诉每个人上线或下线,尽管它的预测总是更好。两艘船的船长认为复杂的宙斯盾防御系统给Vincennes的船员提供的信息是他们所没有的。
由于电脑技术使人能够做到一些之前不能做的事情,因此要对人的行为所可能产生的后果进行考虑也是更加困难了。几十年前,哲学家Ladd指出“电脑技术已经创造出了新的制造模式和新的社会机构,新型的恶以及新型的美德,帮助人以及伤害人的新方式。如今的电脑技术已经有了类似的影响。与这些技术一起的那些管理我们可以做什么的社会或法律传统需要一些时间才能出现,而这些初始时的规矩缺失是对于责任混乱的原因。例如,对于用户在网络上公开上传及分享文本、视频以及图片的能力,引起了关于谁来为这些上传了的材料内容负责的一系列的问题,这样的问题在对意大利的三名谷歌执行官违反了数据保护法案时进行定罪时是辩论的中心。此案是关于在Youtube上四名学生对一个残疾人进行袭击的视频。为了回应意大利邮政警察的要求,作为Youtube的所有者的谷歌,在学生上传后的两个月后下架了该视频。然而,法官司认为由于谷歌没有对避免隐私侵犯做出适当的提前预防措施,因此谷歌对此视频的审核应负有刑事责任。法官还认为谷歌由于没有对上传视频的这些学生的数据保护责任进行恰当的通知而负有责任。在接下来的裁决的辩论中,对于判决的批评坚决认为这样的判决将会威胁到在互联网上的自由表达,并且还会对威权政权对网络的审察制度正名做出一个危险的先例。另外,他们宣称平台提供者对于用户的行为负责不了,他们也不可能对每次上传进行核准,并且审察也不是他们的责任,因此也不能对他们的用户的行为负责。然而其他人则认为,由于谷歌的盈利性商业行为而造成了别人所遭受的伤害,让谷歌对此免责是不道德的。像这样的案例表明,对于新科技的限制及可能性的困惑,使得很难决定人与人之间的义务。
对于新科技发现的经验的缺少同样也会影响所谓的技术使用疏忽。为了操作一个新的电脑系统,使用者通常不得不参加对于系统的熟悉与训练,而这需要技巧与经验方能理解与想象系统的动作。Friedman描述了一个程序员开发并测试了一个能够自我复制的电脑蠕虫的案例。在那时,这是一个新型的电脑程式。开发者将这个蠕虫释放在了网络上,但是当这代码的复制速度快的超过开发者的预期的时候,测试就很快就失去了控制。如今随着我们对电脑蠕虫和病毒的熟悉,我们再不能为此找到一个让人满意的借口。然而,Friedman提出了一个问题即:如果结果真的不能被预测,开发者是否真的是在一种失职。由于在电脑社会中对某一种电脑程序的经验的缺少是否要影响我们对于失职行为的判断。
1.3自由行动
自由的行动或许是在对道德责任的分配中最为重要的情况,但同时也是最受争议的。如果有人没有其他选择只能那样行动的话,我们往往倾向于不对其进行道德责难。如果某人是被支配着或被强迫着做了某事,我们往往不认为其要对其行为负责。在道德哲学中,有行动的自由同样也意味着一个人有自由意志或可以自主。某人可以被认为在道德上要负责的话,是因为她是基于自己的真正的想法以及动机并且有能力控制自己的行为。要注意的是这个自主的概念与在电脑科学中经常使用的自主的概念是不同的,电脑里的自主倾向于表示机器人或电脑系统的在某个时间段的不可预测的环境下完成复杂任务的能力。
然而,在对于只有人类有而其它实体所没有的,能够使之自由行动的能力上并没有什么共识。这种能力需要理性、情绪、意向性或者认知吗?确实,在道德哲学中的一个重要争论就是人类是否真的具有自主或自由意志?并且,如果没有的话,是否仍然需要承担道德责任?
在实践中,基于对一系列状况的满足来将自主与自由意志来赋予人类并不是什么简单的尝试。我们将自主性以程度来赋予个人。普遍将成人看作是比一个小孩更加能自主。当个体在社会中的时候,我们的自主性也是不同的,因为我们总是被外在于我的,如我们的父母或同辈压力所操纵、控制或影响。另外,内在的生理或心理的影响,例如上瘾或心理问题这些都是对人的自主性的更深层的限制。
像其它技术一样,由于它影响了人类的选择和选择方式,电脑处理对某人是否是自由行动的额外增加了一层复杂性。决策制定过程和控制的自动化,是电脑处理领域的最大应用之一。尽管限制了人类操作者对决策链条尾端的自由决策能力,但自动化可以帮助对负责的多项进程中心化并增强控制。在公众管理中应用的自动决策就是例子。大型公共组织,在过去的几十年中都在不断的对他们的生产流程进行标准化和形式化。对于学生贷款、超速罚单或者退税的决策发行流程大多数都是完全由电脑系统实现的。而这已经减少了像税务监督、福利工作者以及政策官员这样的公务员们在个体案例中决定如何实行正式政策规定时的裁量自由。市民们不再与那些在决定何为恰当时应用他们对于规章制度的知识中有着重要责任公务员们打交道。(如:用警告来对某人从轻处理好呢?还是需要开超速罚单呢?)相反的,决定已经提前编写进了算法中,不论是谁或什么场景,都应用相同的方法和规则(如:测速摄像头不关心场景)。在这些例子中,做出决定的责任已经从街道层面的机构上移到了系统层面的机构,如决定如何将政策和法律框架写进算法以及决定树之中的管理者和电脑专家。
这种政府程序的自动化表明一些电脑技术被有意的设计来限制一些人类的自由决定权。实事上,劝说技术领域的目的就是开发出可以劝说人类以“可取”的方式行动的技术产品。而已经在一些如美国、加拿大和英国这样的国家使用的反酒精锁就是一个例子这种锁要求驾驶者先通过一个吹气测试方能启动车子。这种技术强迫一种特定行为,让驾驶者几乎没有选择。其它的科技可能有着更加微妙的通过劝说或诱使的方式来引导行为者的行为。例如,一些车子上的车载电脑装置,实时显示关于燃料消耗的信息,来鼓励驾驶者来优化燃料使用率。这样的技术被明确设计来能过限制人类的选择或者劝说他们以一种特定的方式行选择来使人类负责任的行事。
Verbeek强调,那些对有意的开发技术来强迫道德上可取的行为持批评观点的批评家认为,这样做是在放弃我们社会的民主原则,并且威胁着人类的尊严。他们认为这样剥夺了人们做出深思熟虑决定和自愿行为的权利与能力。另外,批评家也认为如果人类的行为不是自由的,那他们的行为也就不能算是道德的。就像Verbeek认为的,这些反对可以通过指出那些已经为人类可以或被允许行使的行为做出界限的规则、规矩、条款和许多的技术设备来反驳。另外,他强调,技术设备就像主动调解者一样,影响人类的经验与行为但却并不决定之。一些人已经非常有创造性的用一个空气泵来规避酒精锁的严峻道德性。但无论如何,这些批评去强调了自动决策制定程序确实存在的一些问题:电脑处理对人所能够行为的自由设置了限制,并因此影响了她要对之所负道德责任的程度。
电脑技术所提出的有关归因责任状况的挑战表明了在处理道德责任时的传统伦理框架的有限性。道德责任的传统模型似乎是在个体所实行的具有直接明显结果的行为上发展而来的。然而,在当下的社会中,对个体或一群个体的责任的归因已经与那些同样有着意向性的设备和那些有着这些设备参与的其它人类主体的行为相交织在一起。与电脑技术一起行动要求对谁应负责以及什么是道德责任进行不同类型的分析。
2. 电脑可以成为道德主体吗?
至少在西方哲学传统中,道德责任普遍被归因到道德主体,而道德主体这个概念则专属于人类。不像动物或自然灾害,在这样的传统中,因为人类可以自由的选择以某种方式行动而不以另外的方式行动,并能考虑到其选择的后果,因此人类可以是重要行为的道德上的原因。并且,尽管一些人倾向于将电脑人格化,并且将他们看作是道德主体,但如果道德主体意味着它们可以负有道德责任的话,大多数的哲学家者都同意当下的电脑技术不应被称为道德主体。然而,在对电脑处理的道德维度上的传统的伦理词汇上的限制已经使一些作家对道德主体的概念进行重新思考。
2.1 作为道德责任主体的电脑
电脑技术的复杂度的逐渐增加,以及AI的发展,挑战着人类是唯一的可以或者能够被归因道德责任的主体这样的观点。例如,Dennett认为如果所说的是一个有着高阶规律的有意向性的电脑系统的话,让电脑负有道德责任是可能的。据他来说,一个有意向性的系统意味着它可以通过对之进行信念与欲望和理性的归因来预测和解释。换言之,它的行为可以通过假设其具有心理状态,并能基于它的信念与欲望,按照其所认为应当做的来行为来进行描述。根据Dennett,如今的许多电脑已经具有了意向性系统,但是他们缺少更高级秩序的基于心理状态来反应及推理的能力。Dennett认为科幻电影作品《2001太空漫游》中的HAL9000角色可能是被看作是具有高阶命令的意向性系统。尽管当前的高级的Ai可能不会引向HAL,但他确实看到具有高阶意向性的电脑系统的发展的现实可能。
Sullins与Dennett的看法相同,她也认为道德主体不仅限于人类。她认为,电脑系统或者更确切的说机器人,当他们具有明显的自主级别,并且可以被看作表现出作为意向性的行为者的适当程度的抽象级别时,可以将之看作是道德主体。根据Sullins,如果一个机器人在行使其任务时并不是由其它主体控制的话,则它就很明显是自主的。要注意的是,相比于在道德哲学中作为人类的特性的自主的概念,Sullins以一种狭义来解释自主。她将在作为道德主体时机器人同样也需要承担责任作为第三种情况。也就是说,机器人在扮演一些社会角色时,也要承担一些责任,并且在扮演这个角色时,机器也似乎就它对于其它道德主体的责任有着信念及理解。在解释对于“完全的道德主体”需要什么样的能力时,他将之与一个人类护士进行了类比。他认为如果一个机器人足够自主到能够实现与一个人类护士相同的职责,并且对它的角色以及在医疗系统中的责任有着理解的话,那么它就会是一个“完全的道德主体”.Sullins坚持认为离可以具有这些能力的机器的出现还需要一些时间,但“就算是当下的最普通的机器人,也可以被看作是具有某种程度抽象,值得受到道德考虑的道德主体。
与早期的(强)AI项目相伴随的异议,以及例如由Dennett和Sullins所表达的分析批评,对电脑技术可以具有像心理状态、意向性、常识或者情绪这些使人类成为道德主体的能力的观点进行了反驳。例如,他们指出,由于电脑系统不能感受痛苦并因此不能被惩罚,因此将电脑系统看作是可以负有责任的道德主体是没有意义的。或者是就像Stahl所做的那样,他们认为由于电脑系统没有理解它们所处理的信息的意义的能力,因此电脑就没有进行道德推理的能力。为了理解道德陈述的意义,主体必须是使那种陈述有意义的生活形式的一部分;它必须参与到道德话语中来。类似于对关于AI的辩论,批评家们持续通过对电脑所没有也不可能有的各种能够归因于道德主体的能力来对人类与电脑做出区别。
2.2 创造自动道德主体
由于缺少反对或支持未来电脑系统能够负道德责任的明确论据,在机器伦理领域的研究者们至力于通过专注于创造就像可以作为道德主体那样行动的电脑系统来更加深入的发展这个讨论。这个领域中的研究主要关注于设计与开发出可以在给定情况下独立决定什么是正确的事情。根据Allen与Wallach,这样的自主道德主体(AMAs)要必须能够对他们的行为的道德与社会重要性进行推理,并能对它们的行为对于有感觉的存在的影响进行评估,以此做出适当的选择。他们认为,由于机器变得越来越复杂,并且能够在不同的情境与环境下不需人类控制而进行操作,因此这些能力都是需要的。逐步的自主技术已经处在开发之中了,便如军用机器人,无人驾驶汽车或火车,在家中的服务机器人以及医疗机器人,这些机器人将会直接涉及影响人类的幸福和安全的道德境况之中。在未来,为了最小化伤亡,一个自主炸弹拆卸机器人或许将会面临着要做出先拆除哪个炸弹的决定。类似的,一个无人驾驶汽车或许在决定是否要踩下刹车避让一个穿过马路的狗还是要避免引发对车里的司机受到伤害时做出道德决定。这样的决定需要判断。在当下,这样的道德决定由操作者来做出,或者这样的决定已经被写进了电脑系统的设计之中了。Wallach和Allen认为,因为机器伦理在探寻将伦理上的决策制定写入机器,因此机器伦理领先一步使工程师意识到他们所内建在他们的产品设计中的价值。
为了更加具体说明电脑做出伦理的决定或者是将“伦理置入机器”的意义,Moor区分了三种不同类型的伦理主体:隐性伦理主体,显性伦理主体,和完全伦理主体。第一类的伦理主体是由其开发者内置于其设计之中的电脑。这些主体被构造来适应他们所开发或者应用的场景下的规则与价值。因此ATM取款机就是被设计来具有一种高级的安全性,以防止未经授权的人从账户中取钱。而显性伦理主体则是“做伦理”的电脑。换言之,这种伦理主体可以基于一种伦理模型,在特定输入的情况下,决定什么是所应作的正确之事。伦理模型可以是基于传统伦理理论,如康德式或功利式伦理学——取决于其创造者的喜好。这种主体可以基于其使用者(和开发者)的行为来做出伦理决定。这种主体类似于由Allen和Wallach所描述的自主道德主体。最后,Moor将完全道德主体定义为可以做出伦理判断并能证明之,就像人类那样的主体。他认为,虽然当下并没有电脑技术可以被称之为完全道德主体,但在未来这可不可能则是一个经验问题。
制造AMAs的努力引出了这种努力将会如何影响对道德责任的归因问题。如果这些技术不是像人类那样的道德主体的话,他们可能负道德责任吗?当人类可以设计这样的在提前设定好的伦理框架下行为的人造主体时,看起来,责任仍将会归于那些人类行为者以及那些部署这些技术的人。然而,就像Allen和Wallach所承认的那样,完全的将注意力放在装备具有道德决策制定能力的机器人上,而不是同样也注意这些机器人所植根的社会技术系统的话,将会有引起更多的对责任分配混乱的危险。当机器人引入了使引向他们的创造者与使用者的因果联系更加混淆的复杂性时,带有道德决策制定能力的机器人或许像其它技术一样,表现出了对责任归因的类似挑战。
2.3对道德主体概念的扩充
逐渐增长的自主性和智能电脑技术的前景,以及对找到应负责的人类主体的困难的增加使得Floridian和Sanders采取了一种不同的方法。他们建议扩大道德主体的范围以将人造主体包括进去,同时将道德主体与道德问责从道德责任的概念中分离开。他们主张那种对于传统,甚至于现在来讲已经过时的观点即:人应对某些特定种类的软件甚或硬件负责这样的困难,急需一种不同的方法。因此,他们认为应当承认人造主体是能够被问责而不是应负责的道德主体。为了解释,他们将人造主体与狗作为道德行为的根源进行了比较。狗可以作为是道德相关行为的原因,好比损坏财产或像搜救犬那样救人性命,我们可以将他们看作是道德主体,尽管我们普遍上并不认为他们应负道德责任,根据Floridi和Sanders:他们可以是道德行为的根源并且可以通过纠正或惩罚而受到道德问责。
Floridi和Sanders认为,像动物一样,人造主体可以被看作是道德行为的原因,并因此当可以将他们设想成根据适当的抽象层次来像一个道德主体那样行动时,可以受到道德问责。这个抽象的层次的概念关系到人们所采取的立场,所预言的实体以及对其行为的解释。在一种低级的抽象中,我们可以通过系统的机械或生物过程来解释此系统的行为。在一种高级的抽象中,则可以基于信念、欲望和想法来帮助描述一个系统的行为。而如果在一个足够高层次的话,一个电脑系统可以被高效的描述为互动的、自主的和有适应能力的,那么根据Floridian和Sanders,这个电脑系统就可以被认为是可以被问责的。因此,这就不要求一个主体需要人格或自由意志才能成为能被问责的;相反,主体必须要像是有着意向性并且能够做出选择的那样来行动。
根据Floridi和Sanders,将可问责性与责任区分开的好处是将关注点放在了道德主体性、可问责性以及谴责而不是找出应负责任的主体。“由于被确定人类道德主体的必要性所强迫,我们不太可能不惜一切代价来分配责任。我们可以将AAs的科技发展从被标准的限制观点的束缚中解放出来。”当人造主体“行动的不好”的时候,当他们的自主行为和复杂性使之太难在人类主体中来分配责任,可以将它们直接处理掉。不道德主体可以被修正或删除。那么就算当道德责任不能被确定的时候,也有可能对道德问责进行归因。
对于Floridi和Sanders的将电脑造物看作是道德主体,并将关注点放在对之的分析上的关于问责和道德主体的观点的批评意见指出:这样将不再把注意力放在部署和开发这些电脑造物的人类上。例如,Johnson指出电脑技术与他们的创造者与使用者的意向性仍然保持着联系。他认为,尽管电脑造物是道德世界的一部分,并且应当承认其是与道德相关的实体但他们却并不是道德主体,因为他们没有意向。他们没意向则是因为他们没有心理状态或者没有发自于自由行动的目的。她强调,虽然这些人造物没有单身,但却有意向性,但是他们的意向性却是与他们的功能性相关的。他们是人类制造的人造物,他们的设计与使用反映了设计者与使用者的意向。相应的,人类使用者用他们的意向性通过软件与之交互。在与人造物交互时,他们触发了内置于其中的设计者与开发者的意向。电脑技术是通过人类的活动来被设计、开发、测试、安装以及用被提供的输入与指令来实现特定的任务。没有了这些人类活动,电脑什么也做不了。Johnson认为,给电脑赋予独立的道德主体地位将会把创造、部署及使用它们的人类行为者与之相分离。并且会将注意力从塑造技术开发与限制干预可能性的力量上转移开。例如,这将会把理清谁应来处理故障或者不道德的人造主体或者谁应为由它们造成的有害事件进行修正的问题搁置一边。也会推迟对人造主体被允许操作的状况进行解释的问题。
然而,说技术不是道德主体并不是说它们不是道德行为的一部分。一些哲学家已经强调,如果不承认技术对人类行为的塑造角色,就不能恰当的理解道德责任。例如,Johnson认为尽管电脑不是道德主体,但是人造物的设计者、人造物以及人造物的使用者都应当被看作道德评估的焦点,因为所有的他们都是在一个行为上工作的。人类创造了这些人造物,并且将他们的特定价值与在世界上达到特定影响的意向植入这些人造物中,并因此这些技术造物也影响着人类能够做什么,不能做什么,并且影响着人类如何理解及解释这个世界。
类似的,Verbeek坚持认为技术造物独自不会成为道德主体,但是道德主体绝不仅仅只是人类。道德主体普遍包括了一种经常不被设计者预见的塑造人类行为的作为中介的人造物。道德决定与行为是与科技造物共同形成的。他认为在所有形式的人类行为中,存在着三种形式的媒介在起作用1:执行工作的人类媒介,2帮助塑造人造物的中介作用的设计者媒介,3在人类行为中起中介作用的人造物。人造物的作用不可避免的要与其设计者与使用者相联系,但却不能简单的归之于其中的任何一个。那么,对于他来说,主体所行使或做出的道德决定是人类与技术部件的混合。道德媒介不会仅仅只在于人类,而是一个人类与技术的复杂的混合。
在后来的论文中,Floridi探索了分布的道德行为的概念,他认为一些道德的重要结果不可以被减化为一些个体的道德重要行为。一些个体的道德上中立的行为仍然可能引发道德上的重要事件。个体们可能并没有想要造成伤害,但是他们的行为组合在一起却仍然可能会对一些事或一些人造成伤害。为了处理这样分布的道德行为的后续产生的道德责任,他认为,应将在分析上的注意力从行为的主体上转移到行为的受体上去。然后,一个道德行为就可以根据对受体的伤害来进行评估。而不用理其中所涉及的主体的意图。分配责任,然后关注主体在原因上是否要对结果负责,以及调整他们的行为来避免伤害。根据Floridi,如果在原因上应负责的主体(要看是人造物的还是生物的)是自主的,可以与其它主体以及他们的环境互动,并能够从他们的互动中学习的话,那他们就应当对分布的道德行为负责。
3.对道德责任概念的再思考
在受到归因道德责任时的困难的启发下,一些作者已经对在电脑处理相关的使用与解释中的概念进行了批判。他们认为处理道德责任的传统模型或框架不够用了,并且提出了不同的视角或解读来对一些困难进行强调。
3.1责任分配
一种方法就是对道德责任的分配进行再次思考。而对于电脑处理从业者来说,Gotterbarn指出了一种通过对别人进行责备的逃避或避免责任的潜在性。他将这种潜在归因于两种普遍的关于责任的误解。第一种误解是:电脑处理是一个伦理中立的活动。根据Gotterbarn这种错误的观念即科技人造物和建造他们的活动是中立的,这种观念通常被用来证明一种只关注于电脑系统的发展,而对这些技术操作的背景不予考虑的狭隘技术中心。这种狭隘的关注会产生有害的结果。Gotterbarn给了一个关于一个程序员的例子,这个程序员被给予了一个要求其写一个在X光技师设定了所需高度后,可以通过一个杆子来减低或升高一台X光设备的软件的任务。这个程序员专注于解决这个困难,但是却没有考虑那种使用这种设备所可能造成意外事故的环境。因此他没有考虑病人可能偶然处在这个设备在升高或降低杆子时的可能性。最终,这个疏失引起了一场悲剧事故,当一个技师在将这个设备设置升高到桌面高度时,他没有意识到还有一个病人在下面。根据Gotterbarn,电脑从业者有考虑这种意外事故的道德责任,尽管他并没有被法定要求这样做。设计和使用科技造物是一个道德法动,而选择某个设计方案而不选另一个则有着真实的和决定性的后果。
第二个误解则是认为责任仅仅意味着出现问题时确定应被责备之人。根据Gotterbarn,电脑从业者在传统上就接受了一种关于责任的有弊端的责任模型即专注于在造成伤害事故后确定适合的应被责备之人。这种有弊端的模型导致了所有的逃避责任的借口。特别是,电脑技术所提出的复杂性使得电脑从业者可以逃避责任。在开发者与对于其所创造的技术的使用所产生的影响之间的距离可以被用来宣称不存在直接的与即刻的将开发者与故障联系起来的因果联系。因为他们是一个团队或一个大型组织的一部分,并且他们也很少有机会不这样做,因此开发者可以争论他们对于事件的发生链条的影响是可以忽略不计的。根据Gotterbarn,这种有弊端的模型诱使电脑从业者们将自己与责任和责难间隔开来。
这两种误解都是基于一种关于责任的特定观点即将关注的焦点放在了如何使人免于责难与责任。参考Ladd,Gotterbarn将之称之为消极责任,并且将之与积极责任区分开来。积极责任强调“他或她的行为对于其他人产生的结果负责的美德”。积极责任促使电脑专家的专业素养中的一部分是对可以预见的不良事件尽力减小。积极责任关注于所应当做的是什么,而不是对不负责任的行为进行责备或惩罚。Gotterbarn认为电脑处理专业应当接受责任的积极概念,因为积极概念强调了电脑从业者们重视人们的行为结果,并且最小化可能引起伤害的责任与义务。据他所说,电脑从业者们有着一种避免伤害以及交付正确工作的产品的道德责任,而当事情的结果与预想的不同时,对他们是否将会受到问责不用理会。
当系统是由很多人创建的,并且包含在预想对可能引起系统故障的意外事故很有困难时,对电脑从业者的可预想的道德责任的强调提出了一个关于责任能够被追溯到多远的问题。开发者与制造商要在多大程度上可被预期对他们的技术或在他们的编码中的可能的错误的使用所产生的后果进行预期与预防?这些系统一般来说不会被任何一个开发者所完全理解,并且这些复杂的电脑系统似乎不会完全没有错误。何况,设计者与工程师们也不能预见到他们的产品会最终可能在什么样的情况下被使用。手机的制造商能够预料到他们的产品被用作路边炸弹吗?一个更基本的问题是,是否电脑程序员对公众的福利是否有责任,还是只对他们的雇主负责?
3.2作为实践的责任
然而,积极责任与消极责任之间的区别突出强调了要负道德责任的一些人具有一种社会职能,而这也提供了关于问题的另一个观点。前瞻性的与回溯性的责任组织了人与人之间和人与机构之间的社会关系。这种责任对于人与人之间满足特定责任与义务提供了预期,并且对特定行为提供了更正或鼓励的方法。例如,一个机器人公司会被期望建立可以阻止机器人伤害人类的安保。如果这个公司没能够履行这样的期望的话,它将会被问责,而在一些情况下,将会对损伤买单,或者承担一些类型的惩罚。惩罚以及对惩罚的预期将会鼓励公司对系统的安全、责任、可靠的设计以及在他们的机器人中所涉及的风险做更多的关注。这可能使公司对预防未来事故采取行动。然也,这也同样可能促使他们来对转移责难而寻找方法。这种认为责任是关于人与人之间的关系以及对义务与责任的预期的观点将关注点放在了认为一些人应负责任的实践活动上。
这种特定的用来归因责任和对人问责的实践和社会结构对于我们如何与技术联系有着影响。Nissenbaum认为在分配道德责任上的困难在很大程度上可以追溯回到特定的组织特征,以及电脑技术所嵌入的社会情境。她认为,人们如何对电脑处理的本质、能力和限制的设想受到了那些开发和使用电脑技术的人们负责任表现的影响。她观察到了一种在我们的日益电脑化的社会中的一种系统化的对责任的侵蚀,与此同时,她将责任看作是一种强调对伤害与风险进行预防的价值与实践。
责任不仅意味着会有某人或一些人来回答在关键的生命系统中引起巨大伤害以及基础设施和大笔财政损失的故障,甚至于还意味着引起个人的时间、便利性以及满意的损失的故障。
可以将这种责任用来作为“一种强大的激励更好的实践,引出更多的可靠的和值得信赖的系统的工具”。让人们对电脑系统所引起的伤害或风险负责,提供了一种强大的最小化这些伤害或风险的动机,并且也提供了一个分配正当惩罚的起点。
然而,基于“电脑技术已经被广泛的开发和部署的情况,联系着流行的关于电脑处理的本质、能力和限制的流行概念,社会实践与组织实践并不相反。Nissenbaum识别了当今社会对于责任的四种障碍:(1)多手问题,(2)对于作为大型软件系统的内在元素的电脑错误的无怨接受,(3)将电脑作为替罪羊,(4)有所有权而无责任。根据Nissenbaum,人们有着逃避责任以及当事故发生时将责难推给别人的倾向。多手问题以及软件错误的观点是一种不可避免的复杂电脑系统的副产品,将这些作为回答伤害性的结果的借口是很容易被接受的。人们同样也倾向于对电脑的复杂性指指点点,并且当事情出错时,认为是电脑的问题。最后,她意识到一种公司的宣称他们所开发的软件的所有权,但却拒绝跟随着所有权而来的责任。当今的电脑程序总是伴随着宣示软件的生产商的所有权的扩展许可协议,但却否认产品的表现与品质所带来的责任。他们也同样拒绝来自于软件缺陷所引起的结果性损失的责任。
Nissenbaum认为,这四种障碍所基于的一种“责任的文化”目的在于保持责任的清晰界线。这样一种文化助长了一种作为美德的责任的强烈意味,而这种美德是被鼓励的,并且与特定行为的结果所关联的每个人都应为之负责。根据Nissenbaum,所应问责的责任与所应负责的责任是不同的,所应负责的责任是关于寻找应责备之人,并且补偿在事件之后所遭受的损伤。一旦那个人被找到了,其他人就可以脱身了,而这则可能鼓励人们去找借口,例如责备电脑。然而,所应问责的责任则是将所有涉及的都要面临的。这需要一种特定类型的组织背景,为了建立一种问责的文化,在这其中的应负责任使得人们对系统安全、责任以及可靠设计都给以更大的注意力。一个对责任赋予较少价值,以及在组织他们的生产过程中不重视责任的组织,似乎更可能使他们的科技产品变得难以理解。Nissenbaum的分析阐释了我们认为某人应负责的实践,已经建立的人们的解释方式,以及表达关于义务与责任的预期,都在不断的改变与协商中,而这部分的是对于引入新技术的回应。
Nissenbaum认为技术所发展与被使用的情境对于道德责任的描述有着重要影响,但是一些作者也强调到:如果不承认在塑造人类行为的技术的能动作用,那么道德责任就不能被恰当理解。根据Johnson和Powers,只看人类的倾向和所做是不够的。“要将更多的责任归因给那些用技术来行为的人的话就要求能够掌握技术的行为。”必须考虑科技造物对人类行为的多方面的影响。因此道德责任不仅仅是关于一个人或一组人的行为如何以一种道德上重要的方式影响其它人;同样也关于他们的行为是如何被技术塑造的。从这个视角来看,道德责任不是处于一个体或者一个人际关系中,而是分布在人类与科技中。
4.总结
电脑技术已经对道德责任的传统概念提出了挑战,也已经提出了关于如何适当的分配责任的问题。人类还能够对那些他们有着很有限控制或理解的复杂电脑技术的行为负责吗?人类是唯一的可以对道德责任负责的主体吗?或者道德主体的概念可以被扩展到将人工电脑实体也包括进去吗?为了回答这样的问题,哲学家们已经对道德主体与道德责任的概念进行了重新检视。尽管对于在一个日渐增长的数码社会中,这些概念会导致什么还没有一个清晰的共识,但在讨论中清晰的是,对于这些概念的任何反映都将需要强调这些技术是如何对人类行为进行影响的,以及电脑技术与人类之间的边界是什么。