人工智能只能为少数人代言

姓名:高岩        学号:13020199025

本文转载自:http://www.eeworld.com.cn/qrs/article_2017111340836.html

【嵌牛导读】:由于数据来源不平衡,人工智能和机器学习算法已经显示出了偏见,使得它们偏向于其中一部分人。

【嵌牛鼻子】:人工智能机器人,算法,数据

【嵌牛提问】:人工智能是否最终向人类靠拢?人类的生存是否会受到威胁?

【嵌牛正文】:

有一天,人工智能机器人将取代人类,成为地球上的主导生命形式,史蒂芬·霍金(以及伊隆·马斯克)如是说。然而,尽管近年来人工智能和机器人领域取得了令人瞩目的进步,但同样也给社会带来了最紧迫、最真实的危险。

具体来说,威胁不在于人工智能是否会超越他们现在所服务的目标(如管理对冲基金或招募新员工),也不在于它们是否会反抗主人。而在于,人工智能在替主人行事时,是多么的高效。

事实上,由于机器人和人工智能还没有展现出丝毫自主性或独立性,霍金口中“新形式的生命”显然对它们而言并不恰当。相反,它们的存在只是一种扩展形式,扩展的是制造和使用它们的群体。它们是一种复杂的工具,它们帮助组织执行某些活动。

正因为它们是其运作者的延伸,对社会而言才成为了潜在威胁。机器人是由特定人群设计和使用,而这些人有着特定的价值观和利益。这意味着,它们的行动不可避免地会反映和推进这些价值观和利益,而这些价值和利益并非符合所有群体和个人。它们具有卓越的效率和生产率,这意味着,它们将给拥有足够资源的人带来独特的优势,使其能够以自己的想法塑造世界,而牺牲那些普通人的利益。

人工智能和人类学会了偏见

要了解人工智能如何增加社会、经济和政治的不平等,你只需看看最近的例子,这些例子表明,人工智能和机器学习算法已经显示出了偏见。

例如,2016年5月,ProPublica的一项研究显示,在美国多个州使用的累犯评估算法对非裔美国人存在偏见,不其标记为“更高危人群”的比例为44.9%,而白人的这一比例为23.5%。

人工智能只能为少数人代言_第1张图片

又如,2017年4月在《科学》杂志上发表的一篇研究论文发现,在互联网上学习大量的词汇联想时,机器学习工具获得了关于女性和非裔美国人的“类似人的语义偏见”(也就是刻板印象)。

之所以出现这样的偏见,是因为人工智能和机器人从它们所接收的数据和参数中学习。更常见的情况是,这些数据和参数来自于那些设计和使用它们的人:即社会等级较高,享有特权的白人男性。

正因为如此,人工智能面部识别软件难以识别有色人种的脸。也因为如此,人工智能和机器人能够更好地促进其制造者和所有者的利益,而不是其他人的利益。

更重要的是,到2027年,他们的工作效率会更卓越,会渗透到大约2470万个工作岗位,这意味着,他们将在大部分生活和工作领域打下其制造者的烙印。它们会让数以百万计的工薪阶层失业,它们将会给有能力采用它们的组织巨大的商业竞争优势。因此,若一些国家和阶层能够制造并拥有它们,这些国家和群体将会增强更大的全球影响力。

人工智能只能为少数人代言

基于上述原因,目前越来越多向机器人赋权(甚至是赋予公民身份)的讨论令人不安。机器人和人工智能受其主人产权的保护,是不能被随意破坏的。

因此,很明显,赋予他们“权利”并不意味着给予他们免受破坏的消极权利(因为他们已经有了这样的权利),但必须等于给予他们积极权利,使其追求自己的目标(例如,政治反对),而不受来自其他方面(例如,那些不支持机器人的人)的干扰。

换句话说,这种赋权实际上等同于授权人工智能的所有者,让他们的目标、目的、价值观受到特殊的保护,这些所有者可以利用人工智能和机器人来达到自身目的。

最后,提到价值观,我们就触及了另一个不确定的主题,这个主题经常会在人工智能的讨论中出现。无论是欧洲议会还是研究机构,人们经常说,我们需要确保智能机器人可以学习和维护人类的价值观。然而,问题是:到底机器人会传授和支持谁的价值观,而谁又会为全人类说话呢?

不管一套真正的普世价值观能否被灌输到人工智能中,这样的讨论只是表明,机器人的行为方式会产生道德、社会和经济影响,它们只得沦为某些价值观的载体。

而令人担忧的是,他们将在很大程度上由一群特定的企业和实业家制造和控制。在此情况下,他们的高效性极有可能会助力于这类人的价值观和利益的实现——不管是好是坏。

你可能感兴趣的:(人工智能只能为少数人代言)