23新电车难题:用算法分配悲剧

前有电车世纪难题,今天除了把电车改为人工智能之外,没有变化。

但直接主体变为人工驾驶的车,而不是设计规则的人,人类脱离开以一个旁观者和参与者的双重角度去看待这个问题。

机器人三定局

虽然问题没有解决,但并不能阻止人工驾驶的脚步,而这个问题也变得急迫而具体。

想象一下如下场景:

行人横穿马路,刹车来不及,如果不转向,会撞死行人;如果转向,乘客会死于翻车。自动驾驶汽车应该作何选择?

根据科幻小说大师阿西莫夫提出影响力极大的机器人三定律:

第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;

第二定律:除非违背第一定律,否则机器人必须服从人类的命令;

第三定律:在不违背第一及第二定律下,机器人必须保护自己。

不管转向哪里,都会有人死,都会伤害人类,机器该怎么办?

就算加上第零定律:机器人不得伤害人类种族,或者因不作为而使人类种族受到伤害。这个已经算作非常功利的最大利益化的补充原则,可是又如何计算哪个是更大利益呢?是按人数、年龄、成就、财富还是地位呢?

机器还是一头雾水。

惯行办法:功利主义

在人工智能以前,虽然电车难题一直未解,但人类已经面对这个问题很久,且需要去处理一个个具体的难题。在长期的实践中,已经默认一种功利原则,即一般来说,对社会而言,救多个人比救一个人更有效用,救人比救动物更有效用。

这个办法在人自己操作的时候是没问题的,因为任何人只能决定自己的方式,别人会如何选择不可预知也不可控制。

但是人工智能就不一样了,因为他是被预设好的,你知道它遇到这个问题会怎么做,那就出现新的问题。

因为如果预设救多个人优于救一个人,哪怕这个人是乘客,大多数人是不会买的,他们希望买的是那种永远优先保护乘客的自动汽车。也就是说, 绝大多数人都支持自动汽车使用功利主义算法,支持别人买这样的车,但自己不买。这就会造成典型的社会困境。你希望别人做的事,自己不做。结果就是谁也不做,最后这种自动汽车根本就没人买。

悲剧不会消灭,只能分配

有些悲剧就是会发生,只不过是如何分配的问题,这就涉及到怎么确定悲剧总量,以什么方式分配给谁。

1. 市场化分配是分散决策,价高者得。

这个不仅将财富分化延伸,还颠覆了生命无价的社会公德。

2. 政治分配的好处是较能反映民意,但如果政府直接出面分配悲剧,那就成为社会价值观冲突的替罪羊;民意如潮汐,总在分配谁去承受悲剧的政府,无法长期稳定地获得民意支持导致社会混乱。

3. 抽签把一切交给运气,看上去是绝对平等,但抹杀了被社会珍视的另外一些平等观:为什么不先救孩子?为什么不把机会让给那些有巨大贡献的人?

所以,社会也用惯例、习俗、文化来掩盖对悲剧的分配,比如印度留存至今的种姓制度。可是,这种表面上无分配的分配有其代价:社会假装习以为常,披上虚伪面纱。

卡拉布雷西认为, 单一策略的效果往往不如混合策略。

即便如此,稀缺永恒,社会的道德算法必然会周期性切换:某个时段某个价值观占上风,直到它承载的负能量过多,终被另一个价值观所取代。风水轮流转。这是社会道德算法的跨时多元化策略,为相互冲突但都被珍视的基本价值观留下火种,并缓解冲击。

理论上不存在满足各种公平正义要求的正解,但实践中我们随时都在分配。

推荐给你一本书,卡拉布雷西的名著《悲剧性选择》。




你可能感兴趣的:(23新电车难题:用算法分配悲剧)