观看一个以黑人为主角的视频,结果平台给出的相关推荐是:
是否继续观看有关灵长类动物的视频?
这是最近一些Facebook用户在观看一则黑人视频时,遇到的真实情况。
视频的内容其实是几个平民和警察发生争执,和“猴子或灵长类动物”毫无关系。
这在网上引起了轩然大波。
对此Facebook紧急致歉,称其是“不能容忍的错误”。
目前,他们正在研究这一推荐功能以“防止这种情况再次发生”。
这件事情起源于《每日邮报》2020年6月27日发布的一个视频。
视频中有白人、黑人和警察,他们之间发生了一些争执,视频的主要人物是黑人。
最近,有Facebook用户观看这则视频时发现,平台给出的推荐提示居然是:
是否继续观看有关灵长类动物的视频?
这让人感到有些错愕。
按照生物学定义划分,人类的确属于灵长目。
但结合一些社会情况,不少种族主义者将黑人贬低为“猴子”、“猩猩”,意图刻意将他们与“人”区分开。
这样的社会背景,让人不免猜测Facebook给这段视频打上“灵长类动物”标签到底是怎么一回事。
于是有人把这个视频的情况告诉了前Facebook内容设计经理Darci Groves ,看到这个情况后,Groves感到非常的震惊。
随即,她把这一情况发到了一个面向Facebook员工的产品反馈论坛中。
之后,这事引起了Facebook官方的注意。
Facebook Watch产品经理表示,这种情况是不能被容忍的,公司已经在调查问题的根本原因。
Facebook发言人Dani Lever则在一份声明中表示,:
虽然我们在不断提升AI的水平,但是我们知道它并不完美,还有更多可以优化的地方。
我们向所有看到这则冒犯性推荐的人道歉。
Facebook这次的“错误标签”,再一次把AI推上了舆论的风口浪尖。
这几年,不少科技巨头的AI都出现了存在种族偏见的负面新闻。
2015年,谷歌相册就曾把黑人照片打上黑猩猩的标签引起不少争议。
当时,谷歌对此“深表歉意”。
不过在2018年,《连线》杂志发现,谷歌并没有真的改正错误,只是……为图像分类算法去掉了“大猩猩gorilla”这个类别。
去年被CVPR 2020收录的PLUSE方法,也被人发现存在明显的种族偏见。
它是一个可以把打码的人脸修复如初的AI,结果还原的人脸,全部是白人脸。
对亚洲脸庞的复原效果也非常不好。
类似的例子在AI算法中,真的不少见。
由此,AI的伦理问题也一直备受人们关注。
在把人和大猩猩弄混这事上,人类不会犯这种低级错误。为什么AI会呢?
有人认为这是一个复杂的计算机视觉问题。
找出图像之间相似是很容易的,但是找出为什么相似却不相关,这是个很难的问题。
也有人就指出这是因为AI做的工作更多是统计推理,它本身不会思考。
所以,就要关注训练集。
有人就表示,他曾与一家大公司合作时发现,不少AI训练集中都存在偏见。
但是对于这一现象,不少团队都没有想消除歧视的想法。
此外,也存在训练集中包含黑人面孔太少的可能,这导致算法在识别黑人面孔时会表现不好。
当然也不排除程序员本身存在种族偏见,所以在打标签时就已经存在偏见。
参考链接:
[1]https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html
[2]https://news.ycombinator.com/item?id=28415582