用AI分析姓名识别男女 Genderify为啥被骂到服务下线?

用AI分析姓名识别男女 Genderify为啥被骂到服务下线?_第1张图片

  上周刚面世的一项服务 Genderify,号称能通过 AI 分析姓名、用户名或电邮地址来判断某人性别,结果因为算法偏差实在离谱,在社交媒体上引起了广泛关注。

  我们来看看 Genderify 的一小部分“成绩单”:

输入“Meghan Smith”,评估结果为“男性:39.60%,女性:60.40%”;

但输入“Dr.Meghan Smith”,评估就会变为:“男性:75.90%,女性:24.10%”。

  其他名字加上“Dr”,也会让系统给出更偏向男性的结果。

  有网友试着输入了一些单词或名人姓名,Genderify 也表现得令人失望:

  比如输入“scientist”,评估结果为“男性:95.7%,女性:4.3%”;

  输入“Oprah Winfrey”(美国著名脱口秀女主持),评估结果为“男性:78.3%,女性:21.7%”;

  Genderify 的首席运营官 Arevik Gasparyan 是一名女性,但系统连自家高管都不认得,给出了“男性:91.2%,女性:8.8%”的结果。

  群众抗议情绪之强烈,已经迫使 Genderify 彻底关闭了这项服务,网站现已脱机,其免费 API 也无法再访问。

  一位代表通过电子邮件向媒体回应:“如果大家不想要,这样的结局也许是公平的。”

  尽管类似的性别偏见经常出现在机器学习中,但 Genderify 这种“不过大脑”的程度似乎让该领域的许多专家感到惊讶。Meredith Whittaker 是纽约大学 AI Now 的联合创始人,专注研究 AI 对社会造成的影响,她的反应就非常典型:“科技圈的愚人节来了?这是一种干扰科技与司法世界的心理战吗?”

  为什么 Genderify 会引发大规模吐槽?就因为它根据某人的名字对其性别做出假设?并非如此。业界指出,其实人类也会通过名字猜性别,有时也会在这个过程中犯错误,这就需要了解人们的自我认同感,思考对方希望得到怎样的称呼,才能降低冒犯对方的可能。

  Genderify 的问题在于,它自动化了这些假设,显得太过“想当然”了,加深了这个过程中的性别刻板印象。比如前文提到的,在名字前加 Dr. 的情况,意味着系统认为:如果你是医生,那你大概率是个男人。

  虽然创始人 Arevik Gasparyan 强调这是一个用于营销的数据分析工具,但有观点认为,它在特定的应用方式和地点下,会出现潜在危害。

  例如这项服务被集成到医疗聊天机器人中,它对用户性别的假设,可能会导致聊天机器人发出误导性的医疗建议。

  用户们对产品的性别歧视色彩表示担忧,有提问称:“如果我选择了既不是男性也不是女性,你如何处理这个问题?你如何避免性别歧视?你是如何处理性别偏见的?”

  对此,Gasparyan 称,服务是基于“已经存在的姓名/性别数据库”,公司也“正在积极寻求解决办法,以改善跨性别者等群体的用户体验”,试图将姓名/用户名/电子邮件的概念与性别身份区分开来。

  一位代表也通过电子邮件给出了较为详细的回应:

  “我们明白,我们的模型永远不会提供理想的结果,算法需要显著改进。为了让它更好地发挥作用,我们非常期待 LGBTQ 等群体的反馈,以协助我们尽可能地改进性别分析算法。我们的目标是建立一个自学习的人工智能,它将不会像任何现有的解决方案那样带有偏见。”

  雷锋网编译,参考来源:

  https://www.theverge.com/2020/7/29/21346310/ai-service-gender-verification-identification-genderify

  https://baijiahao.baidu.com/s?id=1673625518588393349&wfr=spider&for=pc

你可能感兴趣的:(用AI分析姓名识别男女 Genderify为啥被骂到服务下线?)