AI时代的计算伦理:你会杀死那个胖子吗?

人工智能(AI)的发展正在走上一个快车道,这里有技术积淀走到爆发点的问题,也有资本力量推波助澜的原因。对于普通人,这些问题或许不用关注,但AI的发展还是可以为普通人所耳熟能详。自Google的AlphaGo(按其原义应该是“阿尔法围棋”,但媒体普遍叫它“阿尔法狗”也是别有风味)一战成名开始,我们事实上已经在开始接受与熟悉有AI作为一部分的世界了。

但这种背景下,有一个问题值得关注,那就是计算伦理,或者叫“算法伦理”也可以。因为人工智能作为一种计算机程序,实质上是受开发者的算法逻辑与伦理操持所决定的。从现实的情况来看,“大数据杀熟”(利用大数据对于一些熟客进行用户画像,推送的服务价格高于新用户的价值,比如X程被曝光的那个事例)等事件也提醒我们要关注这背后的伦理与道德——这锅不能直接让AI背。

相比较大数据杀熟,更值得关注计算伦理的一个领域,我一直认为是无人驾驶。在说明这个原因之前,先推荐一本书,英国人戴维·埃德蒙兹所著的《你会杀死那个胖子吗?》。

AI时代的计算伦理:你会杀死那个胖子吗?_第1张图片
《你会杀死那个胖子吗?》

此书一开始就抛出了一些伦理学领域的思想实验,第一个就是电车实验,当然它也有不同版本。第一个版本是:如果你是轨道电车的司机,发现制动阀失灵了,你只能在前方双叉路口选择一个方向,但一边的轨道上有5个人,另一边是1个人,假设他们都被绑在轨道上,你会选择开往哪里?

好吧,大多数人都会选择人少的一边——“两害相权取其轻”。那么接下去问题又来了,现在你不是电车司机了。但你在天桥上看到一辆电车失灵冲过来,前方轨道上有5个人,这时天桥上有个胖子在看风景,他的块头非常之大,以至于你要是将他推下天桥落到轨道上,可以阻拦电车的继续行进,那么,你会杀死那个胖子吗?

这类伦理学方面的两难问题,其实是很难找到各方认同的答案的,从领域发展的角度来说,它的作用是在进行思想锻炼的同时,拷问人类伦理道德规则的底线,从而去推动这个领域的发展。但是在人工智能领域,这个问题就不一样,因为你必须对此类问题有一个明确的主张。因为,假设无人驾驶的汽车在路口遇到电车问题时,那么它到底应不应该杀死那个胖子呢?

你可能感兴趣的:(AI时代的计算伦理:你会杀死那个胖子吗?)