人工智能习得了人类的语言,也习得了种族偏见

人工智能习得了人类的语言,也习得了种族偏见

去年,微软的人工智能(AI)聊天机器人Tay(小冰的美国姊妹版)在推特上线,可以与任何@她的推特用户聊天。短短24小时后,一个甜美、礼貌的"小姑娘"竟然开始脏话连篇,甚至爆出不少种族主义和性别歧视的言论。这个速成的"AI希特勒"引发网民震惊,被微软草草关进"小黑屋"。

4月14日的《科学》杂志上,美国普林斯顿大学和英国巴斯大学的一个联合团队发表了最新研究:AI会表现出各种偏见和歧视,这些偏见涉及种族、性别、年龄等。

英国巴斯大学教授Joanna Bryson说道,"人们会说实验说明AI有歧视。不是的。这其实说明我们人类有歧视,被AI习得了。"

人工智能习得了人类的语言,也习得了种族偏见_第1张图片

研究团队发明了一种词嵌入关联性测试(WEAT)的方法来测试AI固有的一些偏见。研究者的灵感来源于一种内隐联想测试(IAT)的心理学工具。在IAT测试中,计算机屏幕上闪现一些特性的词汇,而被试者对这些词汇组合不同的反应速度暗示了人们心中隐藏的一些联想。如果被试者对一些白人常用英文名和积极词汇组成的词组、黑人常用英文名和消极词汇组成的词组,有更快的反应,这就指向了潜意识里可能存在的种族偏见。

研究表明,人类社会中现存的不平等和偏见结构会借助新兴技术而进一步加剧。鉴于人类正在把日常生活和工作一步步放权给AI处理,这种加剧很危险的。这种危险性还会被另一个因素放大:人类起码还有道德约束,而程序员在开发AI的时候,可不会想到给他们配置一套伦理道德算法,用以抵御输入数据中的歧视倾向。

随着科学技术的进步与发展,AI是否会逐渐取代人类的地位呢?

你可能感兴趣的:(人工智能习得了人类的语言,也习得了种族偏见)