做AI为什么一定要懂行为科学?

原文来自《AI探查》

自从美国种族不平等的大规模示威游行开始以来, IBM宣布将取消面部识别程序,以促进执法中的种族平等。亚马逊禁止警察使用其Rekognition软件一年,以“制定更严格的法规来管理人脸识别技术可能涉及的道德问题。”

但是,我们不仅需要监管方面的变革,还需要更多。整个人工智能(AI)领域必须从计算机科学实验室中走出来并变得更加成熟,必须得到整个社区的支持。

我们可以开发出令人惊叹的AI,这些AI在很大程度上可以公正地在世界上工作。但是要做到这一点,AI不能像现在一样只是计算机科学(CS)和计算机工程(CE)的子领域。我们必须创建一门人工智能的学术学科,将人类行为的复杂性考虑在内。我们需要从计算机科学所创立的AI转变为以行为科学为基础的AI。

AI的歧视问题在实验室中不会发生,它们发生在当科学家将技术转移到现实世界中的时候。 计算机科学(CS) 实验室中的培训数据通常缺乏你和我所居住的世界的背景和复杂性。这种缺陷将导致与真实世界的偏差会一直存在。

人工智能驱动的算法已发现对有色人种和女性有偏见。例如,2014年,亚马逊发现其开发的用于自动猎头的AI算法使自己偏向于女性候选人。麻省理工学院的研究人员在2019年1月的报告中指出,面部识别软件在识别深色色素方面的准确性较差。最近,在美国国家标准技术研究院(NIST)于去年年底进行的一项研究中,研究人员在近200种面部识别算法中发现了种族偏见的证据。

尽管有很多的这样的AI造成的偏差,但并未影响业界对AI研究的热情。这就是为什么IBM和Amazon的公告产生如此广泛报道的原因。从2015年到2019年,全球人工智能的使用量增长了270%,到2025年,该市场的收入预计将达到1186亿美元。根据盖洛普的说法,全世界中等收入水平以上将近90%的人已经在日常生活中使用到了AI产品 -但是可能没有意识到它的存在。

构建AI是一项技术挑战,而使用AI则需要非软件开发密集型学科,例如行为科学,法律和政治等。但是,尽管我们越来越广泛地使用AI,但AI作为单独的研究领域仍然集中在 计算机科学(CS)和计算机工程(CE) 领域。例如,在北卡罗来纳州立大学,CS程序中已经纳入了算法和AI。麻省理工学院在CS和CE下都对AI进行了深入研究。人工智能需要被纳入人文课程、社会科学、种族及性别研究、政治课程以及商学院的MBA课程,让我们在这些科学方向开发一条AI轨道。在乔治敦大学的课程中,安全研究专业的教授正在教授学生AI和机器学习的概念,这需要成为惯例。

如果没有更广泛的方法来实现AI的专业化,我们几乎肯定如今存在的偏见和歧视将永存。目前我们的AI可能会非常容易的造成歧视-但这不是我们发明这个技术的初始想法。我们需要综合考虑一个AI领域,其目的是了解神经网络的发展以及该技术将如何与对应真实的社会环境协同工作

在计算机工程领域,一名学生学习编程和计算机基础知识。在计算机科学领域,他们研究计算和程序理论,包括算法学习的基础。这些是研究AI的坚实基础-但应仅将其视为一个基础组件。这些基础对于理解AI领域是必要的,但仅靠它们本身是不够的。

为了使人们对AI的社会化部署感到满意,以便像Amazon和IBM这样的科技公司以及无数其他公司可以部署的这些创新,AI团队需要的不仅仅是计算机编程人才,同时需要那些在心理学,社会学,人类学和神经科学等学科工作的人才。这样才能了解人类行为模式,并在数据训练过程中不断纠正产生的偏差。如果没有对应的行为科学背景,我们将无法创建用于识别人口买卖、洗钱和其他违法行为的软件。

考虑社会责任将是机器学习的必要因素。我们必须认识到人类偏见的陷阱以及机器会将这种偏见代入它的模型中,因此行为科学、社会科学和人文科学这些人才提供了纠正这些问题的关键因素。只有创建涵盖所有这些学科的AI新领域,我们才能实现这一目标。

你可能感兴趣的:(做AI为什么一定要懂行为科学?)