别再传照片了,人工智能知道你是否是同性恋

别再传照片了,人工智能知道你是否是同性恋_第1张图片

两周前,斯坦福大学的一对研究人员提出了一个惊人的说法。

他们利用从一个约会网站上搜集到的成千上万张照片,对一个面部识别系统进行了训练,并称仅仅通过观察图片就可以识别人的性取向。《经济学人》杂志(The Economist)首先对该事件进行了报道,其它出版物也很快跟进。诸如:“新人工智能可以猜测你是同性恋还是异性恋”,“人工智能可以分辨出你是不是同性恋,这很可怕。”等标题文章纷纷出现。

你可能已经猜到了,事情并没有那么简单。(很明显,只是基于这项工作,人工智能无法从一张照片中直接判断出一个人是直男还是同性恋。)不过,这项研究引发了人们对人工智能的普遍担忧:AI将为监测和防控开辟新途径,尤其可能对被边缘化的人造成伤害。该论文的作者之一,Michal Kosinski博士说,他的意图是对人工智能的危险发出警告。他警告说,很快面部识别不但能识别出某人的性取向,而且还会识别出他们的政治观点、犯罪行为,甚至智商。

因为诸如此类的言论,一些人担心我们正在重新唤起一种历史上的旧观念:仅从外貌可以直觉地知道一个人的性格。这种伪科学,面相学是19世纪和20世纪科学种族主义的燃料,它为人类的一些最坏的冲动提供了道德上的掩护,如妖魔化、谴责和灭绝同胞等行为。批评Kosinski工作的人指责他用二十一世纪的神经网络取代了十九世纪的卡尺,而教授本人则说他对自己的研究发现感到恐惧,并且乐意被证明是错误的。“这是一个有争议的、令人不安的主题,也让我们感到不安,”他告诉The Verge。

那么,现在有了AI,伪科学是否有可能会披上AI的外衣重新潜入现实世界?有人说,机器只能比我们自己更多地了解我们。但是,如果我们训练他们去执行我们的偏见并且这样做的时候,难道不是让已经被我们摈弃的旧观念死而复活吗?我们又该如何区别?

AI真的能识别性取向吗?

首先,我们需要看看最近辩论的核心,由Kosinski和他的合著者王亦伦写的(直译: Yilun Wang)。他们研究的结果被报道得很糟糕,大量的炒作都来自于对系统准确性的错误描述。该文章指出:“只需一张单身者的人脸图像,该软件就能正确地分辨出性取向,且比率为男性81%,女性71%。”“当给系统提供5张个人照片的时候,识别比率就会上升。其中,男性比例为91%,女性为83%。”

从表面上看,这听起来像“通过看照片,81%的时间AI可以来判断一个男人是直男还是是同性恋。但这并不是数据的意义。当随机照片被显示时,AI识别的正确率并不是81%,因为它是对两张图片进行测试,一张是同性恋的图像,另一张是直男的图像。然后问哪个人更有可能是同性恋。它猜对了男性为81%和女性为71%,但是该测试的结构意味着它以50%的基准开始的,这是随机猜测的结果。这与“说它识别出任何一个人的性取向为81%”的说法意义并不一样。

就像马里兰大学社会学家菲利普·科恩(Philip Cohen)在博客文章中批评的那样:“人们害怕这样一种情形——你本来拥有自己的私生活且性取向不为人知,但你去机场或参加去一项运动活动时,电脑扫描你所在人群就确定了你是同性恋还是异性恋。不过,没有多少证据表明这项技术能做到这一点。”

在文章结尾,Kosinski和王明确表示他们的系统上测试了1000张照片,而不是两张照片。他们要求人工智能在数据集里挑出谁最有可能是同性恋者,其中数据集里7%的照片主体是同性恋,这大致反映了美国人口中直男和同性恋的比例。当系统被要求选择100个最有可能成为同性恋者的图像时,系统在70个可能的匹配中只识别到了47个。其余53个被错误地识别。当被要求确定前10人时,9人被正确识别。

如果你是一个试图用这个系统来识别同性恋者的坏人,你将无法确定得到的答案是否正确。尽管,如果使用它识别足够大的数据集时,得到的大多数猜测结果可能是正确的。这危险吗?如果系统被用来锁定同性恋者,那么答案当然是。但其他研究表明,该计划还有进一步的局限性。

计算机能真正看到人类看不到的什么?

目前尚不清楚用于该面部识别系统的判断因素是什么。Kosinski和王的假设主要是识别性别结构上的差异:男同性恋面孔中的女性特征和女同性恋面孔中的阳刚特征。但是AI可能会被其他刺激因素所迷惑,比如照片中的人的面部表情。

这是特别相关的,因为研究中使用的图像是从约会网站获取的。正如奥伯林学院社会学教授格雷戈戈·马森(Greggor Mattson)在博客中指出的那样,这意味着这些图像本身是有偏重的,因为它们被挑选出来是为了吸引特定的性取向的人。几乎可以肯定的是,他们的图像基本符合我们看待直男和同性恋的文化价值观。并且为了进一步缩小适用范围,所有的研究对象都是白人,不包括双性恋或自我认同的跨性别者。如果一个直男在约会网站上选择了最具男子气概的“男性化”的照片,那么,这说明他对社会对他的形象期望的思考,多过他下巴的形状和性取向之间的联系的思考。

为了确保他们的系统只关注面部结构,Kosinski和王用了一种名为“VGG-Face”的软件,该软件将面部表情编码成数字串,并被用于绘画中来识别名人的肖像。他们写道,这个程序可以让他们“最小化瞬态特征的作用”,比如灯光、姿势和面部表情。

但研究人工智能面部系统的研究人员汤姆·怀特(Tom White)说,“VGG-Face”实际上非常善于收集这些元素。怀特在Twitter上指出了这一点,并向The Verge解释了他是如何测试该软件的,并利用它成功地区分了诸如“中性”和“快乐”等表情,以及一些姿势和背景颜色。

别再传照片了,人工智能知道你是否是同性恋_第2张图片
图为一份来自文中的数据显示了参与者的平均脸及他们在两组中所识别的面部结构的不同

Kosinski在接受采访时表示,他和王都明确表示面部毛发和化妆可能是人工智能决策的一个因素,但他认为面部结构是最重要的。“如果你看看VGG-Face的整体性能,就会知道它往往对瞬态面部特征的重视程度很小”Kosinski说。“我们还提供证据证明非瞬时的面部特征似乎预示着性倾向。”

问题是我们还不能确定。Kosinski和王还没有公布他们创造的程序,也没有公布他们用来训练系统的照片。他们在其他图片来源上测试自己的人工智能,看看是否能识别出所有同性恋和异性恋的共同特征,但这些测试是有限的,而且还来自一个有偏见的数据集——来自Facebook上的男性个人资料图片,他们喜欢诸如“我爱同性恋”、“同性恋和神话”之类的页面。

这些群体中的男性是否充当了所有男同性恋的代理人?可能不会,Kosinski说他的研究发现也可能是错误的。“需要进行更多的研究来验证这一点,”他说。但是,如何完全消除选择偏差来进行决定性的测试是很困难的。Kosinski告诉The Verge。“你不需要了解模型是如何工作的,以测试它是否正确。“然而,正是对算法的不透明性的接受使得这种研究如此令人担忧。”

如果AI不能显示它是如何工作的,我们能相信它吗?

人工智能研究人员不能充分解释为什么他们的机器会做他们所做的事情。这是一个贯穿整个领域的挑战,有时也被称为“黑匣子”问题。由于用于训练人工智能的方法较为特殊,这些程序不能像普通软件一样显示出他们的工作,尽管研究人员正在努力修正这一点。

同时,这也导致了各种各样的问题。一个常见的问题是,性别歧视和种族主义偏见是从人类在训练数据中获取的,并由人工智能复制。在Kosinski和王的研究中,“黑盒子”让他们能够做出一种特殊的科学飞跃。因为他们相信他们的系统主要是分析面部结构,他们说他们的研究表明面部结构预示着性取向。(“研究1a”显示,[神经网络]提取的面部特征可用于准确识别男性和女性的性取向。“)

专家称这是一种误导性的说法,并没有得到最新科学的支持。研究性取向的伦敦国王学院的生物学学者卡

齐·拉赫曼(Qazi Rahman)说,可能有一个共同的原因导致了脸型和性取向 ——最可能的原因是子宫内激素的平衡 —— 但这并不意味着面部形状可以预测性取向。“生物学比我们通常认为的更微妙,”他告诉The Verge。“这里的问题是协会的力量。”

性取向主要来自生物学的观点本身就是有争议的。拉赫曼认为性取向主要是生物学上的,他赞扬了Kosinski和王的研究工作。 “这不是垃圾科学,”他说。 “更像是一种不被有些人喜欢的科学。”但是,当涉及到性取向的预测时,他说有一整套“非典型性别行为”需要考虑。 “对我来说,问题是这项研究忽略了这一点——同性恋的行为。”

别再传照片了,人工智能知道你是否是同性恋_第3张图片
存在同性恋基因吗?或者是社会和文化都塑造了性取向?

将性取向的问题归结到身体里一个单一的、可测量的因素上,这其实经历了一段漫长而又不光彩的历史。正如Matton在博客中写的那样“从19世纪对女同性恋生殖器官和男同性恋臀部进行研究,到20世纪后期研究称已经发现了‘同性恋基因’、‘同性恋大脑’、‘同性恋无名指’、‘女同性恋耳朵’和‘同性恋头皮发。’”可以看出研究同性恋的方法层出不穷,也不甚光彩。所以,这项工作的影响是多方面的,最坏的情况是它成为压迫的工具——给那些想要异化和迫害少数性群体的人提供一个“科学”的借口。

澳大利亚国立大学社会学讲师珍妮·戴维斯(Jenny Davis)将其描述为一种生物本质主义的形式。这是一种信念,即性取向是根植于身体的。她说,这种方法是一把双刃剑。一方面,它“做了一件有用的政治事情:把同性欲望的责任推到一边。”但另一方面,它又强化了这种欲望的贬值地位,“把异性恋作为一种规范,把同性恋定为不那么有价值的……一种疾病”。

而在这种情况下,我们认为Kosinski和王Wang的研究表明,AI动力的面部识别具有更黑暗的特征,正如一些评论家说的那样,它是由AI技术驱动的面相学回归趋势的一部分。

你的性格就像你脸上的鼻子一样显而易见

几个世纪以来,人们一直认为脸是人物性格体现的关键。这一观念起源于古希腊,且在19世纪尤其具有影响力。相面学的支持者认为,通过测量某人的额头角度或鼻子形状,可以判断一个人是否诚实或犯罪。在中国,AI研究人员去年声称可以使用面部识别来做同样的事情。

他们将研究成果以“使用面部图像自动推断犯罪行为”为标题进行了发表,结果在人工智能社区引起了轻微

的哗然。科学家们指出了这项研究的缺陷,并得出结论说,这项工作是在复制人类的偏见,即区分所谓的“刻薄”或“友善”的面孔。在一篇被广泛分享的名为“面相学的新衣”的文章中,谷歌研究人员Blaise Agüera和两位合著者写道:我们应该期待“未来几年有更多类似的研究……允许关于科学中立性和客观性的错误主张的出现,以“洗去”人类的偏见和歧视。(谷歌拒绝让Agüera y Arcas 对这篇报道发表评论。)

别再传照片了,人工智能知道你是否是同性恋_第4张图片
图为Giambattista della Porta的一幅面相图(注维基百科:Giambattista della Porta是已故的意大利学者,研究人类心理学)

在文章中,Kosinski和王明确承认了面相学的危险,并指出这种做法“现在是普遍的,而且是正确的,被作为一种伪装成科学的迷信和种族主义的混合体而被拒绝。”但是,他们继续说,仅仅因为它是一个是“禁忌”的主题并不意味着它没有事实根据。他们还说,由于人类能够“低精度”读取其他人的个性特征,所以机器应该也能够做到且更准确。

Kosinski说他研究的不是面相学。因为研究采用了严谨的科学方法,他的论文引用了大量的研究表明我们可以通过观察来推断出(不同的准确度)人的特征。他说:“我受过教育,并相信脸部绝对不可能包含任何有关你私人特质的信息,因为面相学和颅相学只是伪科学,”他说。“但事实上,在没有任何根据的情况下,人们声称他们在瞎编故事,这并不意味着这些东西是不真实的。”他同意面相学不是科学,但他说,计算机可以揭示的基本概念中可能有真理。

对戴维斯(Davis)来说,这种态度来自于对人工智能中立性和客观性的、普遍而又错误的信念。 “人工智能实际上并不是人为的,”她告诉The Verge。 “机器像人一样学习。我们通过文化教育,吸收社会结构的规范,人工智能也是如此。所以它会重新创造,放大,并继续我们教导的轨迹,并将永远反映现有的文化规范。”

我们已经创造了性别歧视和种族主义的算法,这些文化偏见和面相学实际上只是同一个硬币的两面:两者都依赖于糟糕的证据来判断他人。中国研究人员的研究是一个极端的例子,但肯定不是唯一的例子。至少有一家经创业公司已积极地声称可以使用脸部识别来发现恐怖分子和恋童癖。此外,还有很多公司提供分析“情商”服务,并由人工智能监控。

面对即将到来的

但是,回到Kosinski和王的报纸上那令人担忧的标题所暗示的问题:人工智能是否会被用来迫害少数性群体?

会是这个系统吗?不。会是另一个吗?也许吧。

Kosinski和王的工作并不是无效的,但其结果需要资格认证和进一步测试。否则的话,我们所了解的关于他们的系统的全部信息就是,它可以在一个特定的交友网站上,以可靠的方式识别出白种人自我认同的同性恋和异性恋之间的差异。因为,我们不知道它是否发现了所有同性恋和异性恋者的生理差异;我们也不知道它是否适用于更广泛的照片;并且,这项研究并没有说明性取向只能通过测量下巴的方式来推断。与人工智能聊天机器人已经破译了一段好的对话艺术相比,它并没有解码人类的性行为。(它的作者也没有提出这样的说法。)

别再传照片了,人工智能知道你是否是同性恋_第5张图片
图为创业公司Faception称可以通过人脸来确定人们成为恐怖分子的可能性

Kosinski解释说,这项研究是为了警告人们,但他同时承认,这是一个“不可避免的悖论”,你必须解释你是如何做的。文中使用的所有工具都可供任何人查找和整理。深度学习教育网站Fast.ai的研究人员杰里米·霍华德(Jeremy Howard)总结道:“假设许多组织已经完成了类似的项目却没有在学术文献中发表它们,这种假设很可能是合理的。”

我们已经提到有从事这项技术的创业公司,不难发现政府机构会使用该技术。在伊朗和沙特阿拉伯等国,同性恋仍然受到死刑的惩罚;在许多其他国家,同性恋意味着被国家追捕、监禁和折磨。最近有报道说车臣共和国(车臣共和国是俄罗斯联邦的南部联邦管区的其中一个共和国)的男同性恋者的集中营开始开放,那么,如果有人决定自己制作AI同性恋雷达,并从俄罗斯的社交媒体上扫描个人资料,那该怎么办呢?

这种情况下,很明显,像Kosinski和王这样的系统的准确性并不是真正的重点。 如果人们认为AI可以用来确定性偏好,他们会使用它。考虑到这一点,我们比以往任何时候都更了解人造智能的局限性,在AI开始影响人们之前人们要尝试消除危险。在我们教机器我们的偏见之前,我们需要先教好我们自己。

作者:James Vincent

原创编译:梓色扬光

原文链接:https://www.theverge.com/2017/9/21/16332760/ai-sexuality-gaydar-photo-physiognomy

本译文仅供个人研习、欣赏语言之用,不欢迎任何转载及用于任何商业用途。如需转载请注明作者和来源。(本译文所涉法律后果均由本人承担。本人同意平台在接获有关著作权人的通知后,删除文章。”)

你可能感兴趣的:(别再传照片了,人工智能知道你是否是同性恋)