电车难题

电车难题是人工智能伦理中的经典问题。假如你看到有一辆电车正朝着前面有5个人的轨道驶去,眼看着火车停不下来,而你的旁边刚好有一个转换开关,可以让电车行驶到另一个平行轨道,而该轨道上正好躺着一个人。那么你是否会扭动开关?如果换着是人工智能算法,应该怎样设计?测试实验结果显示,大部分人的选择是会扭动开关,以便减少伤亡。

电车难题的另一个版本是,你这站在行驶的列车上面的天桥,旁边有一个人,你可以把这个人推下天桥,阻止列车前进。你会选择推那个人吗?测试实验结果显示,大部分人不会。

这个结论骤眼看上去是矛盾的。如果用减少最低伤亡为系统设计目标,那么人工智能系统反而能在任何情况下保持一致。但事实上,根据儒家的论述,这又是符合伦理的。跟墨家的兼爱理念不同,儒家强调亲疏有别,长幼有序,“老吾老以及人之老,幼吾幼以及人之幼”。所以,对天桥上身边那个人下不了手,儒家伦理道德不允许,但如果是拨动开关,伤害是距离同样远的人,那么就可以用理性的判断。

你可能感兴趣的:(电车难题)