偏见是人工智能的最大危险

姓名:邹宇翔

转载自http://3g.163.com/dy/article/CVU2RM300519N4EJ.html

【嵌牛导读】:随着人工智能时代的逐渐到来,我们许多人还往往关注着人工智能对于生产力提升所带来的好处与坏处,却很少有人发现偏见在人工智能当中会产生巨大的危险。

【嵌牛鼻子】:偏见、数据、风险、阶级分化

【嵌牛提问】:偏见的产生原因?偏见会附在人工智能中给人类社会带来什么影响?如何去减少偏见带来的影响?

【嵌牛正文】:

John Giannandrea在谷歌领导人工智能系统,他担心智能系统会学习人类的偏见。

谷歌的人工智能负责人并不担心超级智能的杀手机器人。相反,John Giannandrea担心的是可能潜伏在机器学习算法中的危险,这些算法用于每分钟做出数百万个决策。

“真正的安全问题,如果你想这么说,那就是,如果我们给这些系统有偏见的数据,他们就会有偏见,”Giannandrea在最近的一次关于人类和人工智能系统关系的谷歌会议之前说。

随着技术向医学和法律等关键领域扩散,机器学习中的偏见问题可能会变得更加严重,而且越来越多没有深入技术理解的人被要求部署这种技术。一些专家警告说,算法偏见已经在许多行业中普遍存在,而且几乎没有人在努力识别或纠正它(见“到处都是有偏差的算法,似乎没有人关心”)。

Giannandrea补充说:“重要的是,我们要透明地了解我们正在使用的培训数据,并在寻找隐藏的偏见,否则我们将建立有偏见的系统。”“如果有人试图向你推销一个用于医疗决策支持的黑盒系统,而你不知道它是如何工作的,或者是什么数据被用来训练它,那我就不会相信它了。”

黑箱机器学习模式已经对一些人的生活产生了重大影响。一个名为“COMPAS”的系统是由一家名为“Northpointe”的公司制造的,它可以预测被告是否有再次犯罪的可能性,并被一些法官用来判定一个囚犯是否被假释。COMPAS的运作方式是保密的,但ProPublica的调查发现,这种模式可能会对少数群体产生偏见。

然而,它可能并不总是像公布数据的细节或使用的算法那样简单。许多最强大的新兴机器学习技术在工作中是如此的复杂和不透明,以至于他们不顾仔细的检查(见“人工智能核心的黑暗秘密”)。为了解决这个问题,研究人员正在探索如何让这些系统向工程师和终端用户提供一些近似的工作方式。

Giannandrea有充分的理由强调可能会有偏见渗透到人工智能中。谷歌是向各类企业兜售其云计算平台的人工智能能力的几家大公司之一。这些基于云的机器学习系统的设计要比底层算法简单得多。这将有助于提高这项技术的可访问性,但也可以让偏见更容易潜入。此外,提供教程和工具也很重要,帮助那些经验不足的数据科学家和工程师识别并消除他们训练数据中的偏见。

受邀参加由谷歌组织的会议的几位演讲者也强调了偏见的问题。谷歌研究人员玛雅古普塔称,她努力开发更不透明的算法,这是一个内部被称为“GlassBox”的团队的一部分。Karrie Karahalios是伊利诺伊大学计算机科学教授,他提出了一项研究,强调在最常见的算法中发现偏见是多么棘手。Karahalios指出,用户通常不理解Facebook如何过滤新闻流中显示的帖子。虽然这看起来无伤大雅,但却很好地说明了询问一个算法是多么困难。

Facebook的动态消息算法肯定会影响公众对社交互动的看法,甚至会影响重大新闻事件。其他的算法可能已经在微妙地扭曲了人们接受的医疗护理,或者在刑事司法系统中如何得到治疗。这肯定比杀手级机器人重要得多,至少目前如此。

近年来,Giannandrea无疑是一个理性的声音,在一些关于人工智能带来风险的更异想天开的警告中。尤其值得一提的是,Elon Musk最近警告说,人工智能比朝鲜更大的威胁,可能会导致“世界第三”。

Giannandrea说:“我反对的是,我们将会飞跃到某种超级智能的系统,然后让人类变得过时。”“我理解人们为什么会担心这个问题,但我认为它的时间太长了。”我只是看不出有什么技术依据来解释为什么会这样。”

你可能感兴趣的:(偏见是人工智能的最大危险)