智能汽车自主决策机制的致命缺陷

随着汽车公司不断的测试和提高智能汽车在市场中的价值,汽车的自动驾驶开始慢慢的流行起来了。我们知道,谷歌的自主驾驶汽车在内华达州已经获得了特定的驾驶执照。但是在汽车使用的过程中也发生了一些小小的事故,虽然谷歌公司并不认为这是自动驾驶汽车的故障。然而我们想象一下,当自动驾驶的汽车越来越多时,发生这种意外的概率就会越来越大。试想一下,当你的自动驾驶汽车需要作出决定,是否拯救车中的你还是路上的一群人的时候,会发生什么情况?各位想过没有?

这是个非常敏感的问题,也涉及到一个巨大的道德问题。在极少见的情况下,智能汽车必须做出一个“最佳”的选择时,会如何决策?是减少生命的损失?即使汽车撞倒墙上,使车内的司机受伤?或许,汽车制造商会选择加入弹射座椅的标准功能。

如果这个标准成为所有的智能汽车的标配,我们真的会打算买一辆这样的车吗?因为还是会存在0.00001%的概率因为这样的设置将驾驶者至于死地。难道就是这样去拯救行人的吗?如果你是一个开车的人,那你会做出哪种选择?

研究人员决定让公众参与投票。这其实存在一定的悖论的。智能驾驶汽车是应该牺牲多数人的利益,还是牺牲自己的利益?以下是一个名叫小车间的问题描述了这种情况。

在场景1中,你驾驶一辆小车向一群工人冲去。你的不做为会导致他们的死亡。如果你转向侧面,那你会杀死一个恰巧在路上的工人。

在场景2中,你是一个外科医生。有五个人需要进行器官移植。你唯一也是致命的选择是从一个健康的第六患者中获取所需要的器官,然而该患者并不同意你的想法。但如果你不做这件事,另外五个病人将会死去。

这两种情况的结局是相同的:杀一个,救五个。当两者之间是否存在道德层面上的不同?在第一个场景中,你是一个英雄,你做了一件正确的事情。而在另一个场景中,你是个疯子。是不是很耐人寻味?

做这个实验的调查者,他们得出了调查结果:

从功利主义的道德标准下,智能汽车的自动驾驶的设置会不可避免的产生某些伤害。但当涉及到不同的道德标准的时候,人们又希望机器能做的更多一些。

科幻大师艾萨克阿西莫夫的粉丝会发现,这个定义非常难理解:当被问及这一决定是否应该写入法律时,大多是的受访者认为不应该。虽然可以通过创造法律去规范某些道德标准,但将有人驾驶替换成无人驾驶,依然有很多人反对。

这确实是一个有趣的灰色区域,但这些规则不是由法律来强制执行的话,我们能信任由谁来创造的决策系统?你是否同意让谷歌来做出这些决定生死的事情?

所以,在智能自主驾驶汽车出现在商业市场之前,公众的意见必须统一,对什么是正确的“决定”能让自动驾驶汽车自己去做(或不做)。这是一个非常有趣的问题,各位想想,是不是?

優態客(Yourtechnic)的博客:www.yourtechnic.com

優態客(Yourtechnic)的联系方式:[email protected]

優態客(公司网址)

你可能感兴趣的:(智能汽车自主决策机制的致命缺陷)