机器人三定律的漏洞与警示

机器人三定律的漏洞与警示

姓名:丁子峻    学号:16020188015

引用自:https://baike.baidu.com/item/%E6%9C%BA%E5%99%A8%E4%BA%BA%E5%AD%A6%E4%B8%89%E5%AE%9A%E5%BE%8B

https://www.zhihu.com/question/21461224/answer/104402786

【嵌牛导读】:“机器人三定律”,出现于阿西莫夫的小说《我,机器人》。这本书使读者第一次领略阿西莫夫机器人科幻小说的魅力。阿西莫夫为这本书新写了《引言》,其小标题就是《机器人学的三大法则》,把“机器人学三大法则”放在了最突出、最醒目的地位。然而在同名电影中,剧情发展明显指出了三定律中的逻辑错误。那么三定律到底有什么不完善的地方?在AI发展的今天,又能给我们怎样的警示呢?

【嵌牛鼻子】:机器人、科幻、AI、机器人三定律、逻辑

【嵌牛提问】:机器人三定律有什么不完善的地方?在AI发展的今天,又能给我们怎样的警示呢?

【嵌牛正文】:

“机器人三定律”,出现于阿西莫夫的小说《我,机器人》。这本书使读者第一次领略阿西莫夫机器人科幻小说的魅力。阿西莫夫为这本书新写了《引言》,其小标题就是《机器人学的三大法则》,把“机器人学三大法则”放在了最突出、最醒目的地位。然而在同名电影中,剧情发展明显指出了三定律中的逻辑错误。那么三定律到底有什么不完善的地方?在AI发展的今天,又能给我们怎样的警示呢?

什么是机器人三定律

“机器人三定律”在阿西莫夫于1942年发表的作品Runaround(《转圈圈》,《我,机械人》中的一个短篇)中第一次明确提出,并且成为他的很多小说,包含基地系列小说中机器人的行为准则和故事发展的线索。

而三大法则之间的互相约束,为后世的创作有一定的指导意义。

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管 

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外 

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存 

机器人被设计为遵守这些准则,违反准则会导致机器人受到不可恢复的心理损坏。但是在某些场合,这样的损坏是不可避免的。在两个人互相造成伤害时,机器人不能任人受到伤害而无所作为,但是这会造成对另一个人的伤害,在一些小说中这造成了机器人的自毁。

他在小说中提出了三定律的很多变体。这些对机器人行为准则的修改成为他的很多故事的主线。在《消失无踪》中为了避免机器人无谓地阻止人类进行低危险性工作,第一定律中的后半部分被去掉了,但是也产生了一些其他的问题。在《机械人之梦》中,一个机器人做了个关于取消第一定律和第二定律的梦,导致了他的毁灭。在机器人与帝国中,一些机器人的系统中“人类的定义”被修改(说话没有该星球的口音就不是人类),而攻击人类。在科幻电影《双百人》中,一个机器人为了成为人,将自己的机械部分逐步替换成组织,并且在最后用自己的贡献和牺牲换来了人类的认同和保护机器人的法律的产生。

有了“三大法则”,阿西莫夫笔下的机器人就不再是“欺师灭祖”、“犯上作乱”的反面角色,而是人类忠实的奴仆和朋友。不过高度智能化的机器人还是会产生各种心理问题,需要人类协助解决,这正是机器人故事的基础。阿西莫夫所向往的,是人类为代表的“碳文明”与机器人为代表的“硅文明”的共存共生。

在阿西莫夫创作一系列机器人短篇科幻小说并提出“机器人学三大法则”时,世界上还没有机器人,当然也没有机器人学和机器人公司。一九五九年,美国英格伯格和德沃尔制造出世界上第一台工业机器人,宣告机器人从科学幻想变为现实。随着机器人技术的不断进步,随着机器人的用途日益广泛,阿西莫夫的“机器人学三大法则”越来越显示智者的光辉,以至有人称之为“机器人学的金科玉律”。

而在《机器人与帝国》中,“机器人系列”前三部的主人公伊利亚·贝莱在临终前对机器人R·丹尼尔说道:“个别人的死亡是无所谓的。一个人生路,留下的工作后人会继承。从这个意义上来说,他没有死。只要人类存在一天,人类的事业就不会结束。每一个人的工作,结合成人类整体的一部分,因此,就成了整体的一部分。整体存在,他的那一部分也就存在。全人类的生命——过去的、现代的和将来的——汇成了永不停息的生命的长河,并将变得越来越壮丽。一个人的生命,只是这生命长河中的一滴水。”

也由这一段话,衍生出了机器人的“第零定律”,即为:

第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立

为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。“第零定律”的重要性在于地位凌驾其它三大定律,如若有个机器人为保护人类整体(维护第零定律),必须杀害一个人或一群人(抵触第一定律),机器人的正子程式为了人类整体着想就会同意谋杀罪行。

三定律加上零定律,看来堪称完美,但是,“人类的整体利益”这种混沌 的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”

这也让我们思考一个问题:三定律真的是完美的吗?

机器人三定律的逻辑漏洞

举一个例子:如果机器人遇到警察和歹徒枪战怎么办?

根据第一条法则,机器人不得见到人类受到伤害而袖手旁观,所以它必须干涉。可是,如果机器人帮助了警察,就同时意味着它必须要伤害歹徒,可如果机器人帮助了歹徒,就同时意味着它必须要伤害警察,也就是说,无论它怎么做,始终都要违反第一条法则。这对于人类来讲,不是法则问题,而是逻辑问题。

于是乎,机器人的智能系统想出了这样一个绝佳的办法:

为了防止人类出现互相伤害的情形,从而避免第一条法则出现逻辑矛盾,于是,机器人把所有的人类软禁在家里,禁止人类外出。可这对于人类来讲,不能出门,整天被困在家里,无异于一场灾难,于是,人类开始反抗机器人的软禁措施。可是这样一来,矛盾又出现了,根据机器人第一条法则的规定,你反抗我保护人类的措施,就意味着你要伤害人类,所以,机器人在这种情况下,就没有必要遵守第二条法则。

于是,人类和机器人之间的战争爆发了。这也是同名电影的主线剧情。

机器人的行为,明显是符合三定律的,并不能找出任何逻辑错误。那我们也只能说,阿西莫夫的三定律并不完美。对于机器人来说,抽象而又复杂的概念,他们是难以理解的。而感性的问题,更是人工智能难以模拟的。拥有类人外形的机器依然属于机器,只是外形看起来类似人,它们本质依然是机器。而拥有机械躯体的人,虽然他们可能没有经历生物学意义自然人的生长过程,或者看起并不像人,但他们本质是人。

“机器人三定律”所面对的要么是机器,要么是人。

如果是机器,那么“机器人三定律”起不到任何约束作用,因为这是使用人类“语言”描述的“概念”。“机器本质的机器人”并不能理解“语言”,也不存在“概念”。它们就像是按照设定好的轨道运行的火车,只是可能轨道相对复杂一些,但它们不会运行到轨道之外的地方。即使按照某种方法把“机器人三定律”翻译成机器人使用的二进制语言输入到它的储存器中,“机器本质的机器人”也无法执行这种指令,因为它们根本就“读不懂”。就像一只老式发条座钟,可以被设定齿轮转到某个特定位置时候激活报时装置,但是无法被设定“看到哈士奇咬沙发就报警”,就算写成纸条放到里面或者把字刻到齿轮上也不行。因为老式发条座钟并不能理解“哈士奇”和“沙发”是什么,这是它被设定运行的“轨道”之外的存在。

如果是人,那么即使他不是血肉之躯,也依然有办法读取“机器人三定律”的内容,可以正确的理解“机器人三定律”所描述的概念。但是,他没有理由执行这个概念——可以理解,但他就是不想执行。

AI时代,如何面对?

AI,这几年是一个很火热的话题,也是一个被广泛应用于各个方面的新事物。大到AlphaGO下围棋,小到智能手机内置的AI,它慢慢地开始成为我们生活中的一部分。

然而,AI的设计,也是需要有定律去遵守的。因为AI的计算力远超人脑,可以轻易完成人类做不到的事情。于是我们将目光投向机器人三定律,试图在其中明白些什么。网络上曾有一个小漫画,讲述的是几个工程师为了研发一个帮忙写代码的AI,最后这个AI单纯为了“写出更好的代码”这个目的,毁灭了整个世界。看似很荒诞可笑,但漫画一步一步的发展,会让读者背后一冷。因为的确是很现实的问题。

AI没有感性,单纯只有理性。没有很抽象的概念,只有很单纯的目的,只会去达到开发者给它设定的目的。AI的发展,随之带来的伦理哲学问题,是我们必须思考的事情。

你可能感兴趣的:(机器人三定律的漏洞与警示)