chapter 1
1992年,在高中的一堂计算机科学课上,我写出了人生的第一行代码。
当那台四四方方的电脑屏幕上出现“Hello world”时,我被吸引了。我当时兴奋地想“它可以做到我希望它做的事!”而且,“终于有人理解我了!”。
对一个处于青春期的孩子来说,有一台电脑完全听我的话,并由我自己掌控,这是件让人多么兴奋的事情。
确切知道某个事物是如何工作的,并能从完全控制它的能力中获得掌控感,这应该是吸引很多编程人员从事这份工作的一个重要原因。
AI正在生产一些漂亮的小玩意儿,从自驾车到自动医疗诊断。但现在AI的表现,让我们感觉似乎已经对它失去了控制。
我现在与AI的互动,经常是大喊大叫,“不,Siri!我说的是巴黎,不是多味腊肠!”。
当我的电脑完全了解我时,它就让我很难找到那种掌控感。我的Fitbit看起来像个恐怖的圣诞老人,它知道我什么时候睡觉,什么时候醒过来,也知道我是否在坚持锻炼。
chapter 2
各种算法对我们的每一步进行的跟踪,让我们面临比冲动购物更严重的危险。越来越两极化和激进的政治运动、泄露的数据以及利用收集到的Facebook上的个人资料操纵选举,都是大规模部署人工智能的后果。像在网上分享慢跑路线这样看似不经意的事,都可能会泄露军事秘密。
这些案例只是冰山一角。甚至我们心爱的Canadian Tire money(加拿大轮胎公司推出的数字资金)也被用作机器学习团队的监视工具。
多年来,科幻小说作家们一直在描述技术可能带来的奇迹,和由智能技术带来的世界末日的情景。智能技术完美地理解了我们,并且完全符合我们的要求。但直到最近,非粉丝大众才开始意识到机器人和持续监控导致的一系列问题。
现在,每天的新闻里都会出现关于人工智能的故事。新闻报道涉及从住房危机到流感的每一个问题,以及文化评论员对“机器人将很快奴役我们所有人”的悲观预言。
这些报道和言论,好像被AI领域人们夸张的自我祝贺片段平均地分割开来。但亚马逊音箱令人毛骨悚然的午夜嘲笑或许只是一个警告信号。
我们应该相信哪一方?作为为两队效力的人,我的回答是:确实存在真正的风险,我们应该非常担心,但最严重的风险往往不会被重视。
我们还可以做一些事情来确保人工智能是以有益于社会的方式开发的,但目前为解决人工智能所面临的风险而做的许多努力都是错误的。
我认为我们不需要担心的一种情况是机器人有意识(无论是什么意思)并决定杀死我们。
首先,有意识的机器人还很遥远。另一方面,意识并不会直接导致谋杀——这是一个不容忽视的问题。我发现另一个让我觉得牵强的场景是:一个负责回形针公司利润最大化的计算机,最终将地球上(或更远)的所有资源都转化为回形针。当然,这是可能的,但也不太可能。我们应该能够关掉发生故障的HAL 9000。
然而,我们应该非常关心的是武器化无人机。自动化的杀人机器不会让我们的生活更美好。
chapter 3
另一个严重的风险是我所说的“书呆子”的视角问题:无法看到超越自己所在圈子的价值。
计算机科学领域有一种习惯:先建立,后修复,同时在设计和生产新技术时避免外部指导。从事AI研发的人和控制资金的人,都需要更认真地对待他们工作的社会和伦理意义。
在医学和工程领域,有专业人士应遵循的行为准则。在行为科学中,有研究伦理委员会,可以衡量拟议实验参与者对人群利益的可能伤害。那些结果可能会造成社会危害的研究,将不会获批准。而在计算机科学中,道德是可选的。
玛丽·雪莱的《弗兰肯斯坦》今年已经问世200年了,这或许是对科学家们最著名的警告,提醒他们不要放弃对自己研发的作品的责任。
弗兰肯斯坦在看到他的作品丑陋的一面后就逃跑了,正是这种抛弃行为,导致了这个生物开始复仇杀人。
弗兰肯斯坦一开始也有着与目前人工智能研究人员同样的崇高目标:“如果我能把疾病从人类的身体中驱除出去,使人类除了暴力、意外死亡之外,不会再受到任何伤害,这将是多有意义的事情呢?”
弗兰肯斯坦的导师在一句充满戏剧性讽刺的台词中向他保证,“天才的劳动,无论是多么错误的指导,几乎都没有失败,最终会转向人类的坚实优势。”
雪莱知道这种自负的态度有多么危险。
chapter 4
但是我们这个时代的“书呆子”天才们也会犯同样的错误。如果你问一个程序员应该做些什么来确保AI没有恶意,可能会得到两个答案中的一个,而这两个都不能让人放心。
回答1 :“那不是我的问题。”最近哈佛大学的一位计算机科学家举例说,当被问及他开发的预测性警务工具如何被滥用时,他说,我只是一个工程师,只负责开发。
回答2 :“相信我。我聪明,能把它弄对。”人工智能研究人员是一群聪明的人,但他们在避免道德失误方面有着糟糕的记录。
一些出名的失误包括:谷歌图片把黑人标记为大猩猩;聊天机器人变成纳粹;以及貌似有种族偏见的自动肥皂器。
当有偏见的算法负责决定谁应该获得银行贷款的批准,谁应该被雇用或接受大学教育,或者是否在警察追捕中杀死嫌疑人时,后果可能更加严重。
chapter 5
在AI领域,越来越多的人在为行业能更好地发展做出努力。去年12月,国际人工智能大会( NIPS )首次以人工智能中的偏见为主题。
《纽约时报》最近报道,麻省理工学院和斯坦福大学等顶尖学校的计算机科学专业正急于推出道德课程。
事实上,这种课程已经存在很长时间了。多伦多大学的计算机科学专业有一门计算机与社会课程,其中包括几个星期的伦理学课程。
哲学系和跨学科系,如科学和技术研究、科学和媒体研究的历史和哲学,也经常提供关于技术的社会和伦理影响的课程。
不幸的是,这些课程对计算机科学学位来说不是必修课,所以大多数毕业生根本没有得到任何道德培训。我目前正在教一门关于人工智能在医疗保健中的社会和伦理影响的课程——大约有12名学生来听课。
这种情况可能会被改变。当我联系多伦多大学计算机科学系本科生协调员弗朗索瓦·皮特时,他说,就在某个星期,道德培训的问题被提了四五次。
负责计算机和社会课程的教授史蒂夫·伊斯特布鲁克认为,需要更多的道德培训,并指出计算机科学学生的道德推理“远不如其他学科的学生成熟”。他说,不能只有一门伦理学课程,而是应该渗透到整个课程中,让所有的学生都能不断接触到它。
北卡罗来纳大学教堂山分校的Zeynep Tufekci教授对此表示赞同,他在Twitter上评论道:“你必须从一开始就把道德规范融入计算机科学课程。这里有一个变量,这是一个数组,看,我们可以对事物进行排序。当你运行你的第一个qsort时,[ (计算机科学101课程中遇到的标准排序算法),你遇到了伦理和本体论问题。”
计算机科学系如果想完成这种全面的课程改革,应该说还需时日。因为他们的许多老师和学生一样,几乎没有接受过道德方面的专业培训。这就要求他们的学生通常要选修由非专家教的内部伦理学课程。
希望计算机科学专业扩大他们的伦理课程,而且是由训练有素的伦理学家来设计和教授这些课程。坦率地说,哲学家使自己有用的机会并不多,所以,我们不该剥夺他们发挥自身价值的机会。
chapter 6
解决AI道德(伦理)问题的另一种努力是众包道德项目的激增,其值得称赞的目标是对科学采取更民主的方法。
其中一个例子是DJ Patil的《数据科学道德规范》,它邀请数据科学界提意见,但并不是建立在哲学家、历史学家和社会学家已经做了几十年的研究的基础上。
另一个例子是MIT的道德机器项目,它让公众投票选择,该让一辆刹车失灵的自动驾驶汽车撞向五个无家可归的人,还是一个女医生?
哲学家称这些问题为“电车问题”,在过去的半个世纪里,已经有数以千计的关于这类话题的书籍和论文。如实验哲学一再表明的那样,将专业哲学家的观点与普通大众的观点进行比较,可以使人眼界大开,但如果仅依靠大众投票而忽视专家意见,则是不负责任的。
使AI更加道德的关键是,它不会在互联网上随机复制偏见。在AI工具的设计过程中,让社区参与是一个好主意,但我们不要让“魔鬼”决定道德问题。相反,应征求受到技术变革影响较大的人群代表的意见,了解他们最重视哪些成果,技术应满足哪些需要,以及在现有资源下拟议的设计是否可用。
来自戒备森严的街区居民的意见显示,受过历史数据培训的预测性警务系统将加剧种族问题。如果在皂液器设计团队里有个有色人种,他们就应该能清楚,浅肤色检测器并不能适应所有人。任何对跟踪有常识的人,肯定会注意到拍摄型无人机的潜在弊端。
使人工智能的人才库多样化是解决方案的一部分,但人工智能还需要其他领域专家的外部帮助、更多的公众咨询和更强有力的政府监督。
《纽约时报》 最近发表的另一篇文章称,“学者们已经坐在方向盘上睡着了” ,使得决策者们很难找到如何监管人工智能的方法,只能任由行业说客摆布。
这篇文章在Twitter上引发了哲学家、历史学家和社会学家的大量回复,他们对自己几十年来在资金不足的情况下做的工作成果被忽视和抹去表示愤怒。
如果政策制定者和资金持有者密切关注这些声音,就会有解决的办法。
文章的结论是,我们“迫切需要一个专注于算法责任的学术机构”。在Twitter上,该文章的作者Cathy O'Neil坚持认为,“应该有更多的终身教授来专门讨论这个问题”。
chapter 7
加拿大是如何应对这些问题的?联邦政府最近拨款1.25亿美元用于泛加拿大人工智能战略,由加拿大高级研究所(CIFAR)负责,并分别在埃德蒙顿、多伦多和蒙特利尔设立了三个新的研究机构。其中一个目标是“发展全球思想领导力,以提高人工智能在经济、道德、政策和法律方面的影响” 。
已经有了一些有希望的迹象。
最近宣布成立了一个关于人工智能战略的国际科学咨询委员会,其中包括生命未来研究所的共同创始人,该研究所的任务是保护生命免受技术挑战。
CIFAR刚刚启动了一个人工智能和社会计划,其中包括讲习班和出版物,旨在促进讨论和指导决策者了解人工智能向社会提出的道德、法律、经济和政策问题。
艾伯塔机器智能研究所目前专注于工业伙伴关系,而多伦多的向量研究所在人工智能的深度学习和医学应用方面具有特殊优势。
Vector Institute研究主任理查德·泽梅尔在算法公平方面有一个日益壮大的辅助项目,还一直与多伦多大学伦理中心的法律学者和研究人员保持联系。
另一个小组正在研究人工智能和安全性。泽梅尔教授承诺,引进社会科学家、伦理学家和政策分析家是他“决心要做的事情”。
蒙特利尔学习算法研究所(MILA)已采取若干具体措施来应对AI在道德挑战方面的问题,包括提供多样性奖学金、举办关于AI的社会负责任发展的跨学科论坛,并宣布《关于人工智能负责任发展的蒙特利尔宣言》。
虽然这也是众包的道德准则,但还是有一个关键的区别:哲学家、社会科学家和政策分析人员参与了该准则的制定,并将监督最终文件的制定。
chapter 8
目前还缺乏对致力于人工智能的社会、伦理和政策影响方面的工作的投资。Vector Institute正在招聘研究科学家和博士后;MILA正在招聘实习生、博士后和教授,但这些招聘,有机器学习方面的专业知识都是主要的工作资格。
CIFAR的人工智能和社会研讨会建议将“跨学科团队聚集在一起,探讨人工智能如何影响世界的新问题”,但加拿大(或其他地区)从人文和社会科学角度研究人工智能影响的岗位很少。
除了在人工智能领域设立新的任期和研究生学位,我们还需要投资于培训和聘用专家,使他们了解人工智能的社会、道德和政策含义,这样,我们才会有希望预测和预防危险的结果。
最近的CIFAR活动还突出了该策略中被忽略的问题。研讨会将人工智能和健康研究人员聚集在一起,开展联合项目,旨在开发系统来做预测流感爆发等事情。
这听起来不错,但据科学哲学家的研究表明,只是让人们在同一个会议室,并不足以让跨学科项目发挥作用。不同领域的研究人员使用的词汇不同,概念和方法可能有相互冲突的地方。像“偏见”“天真”“本体论”“回归”和“监督”等词在AI中具有与通常意义大不相同的技术含义。为了避免潜在的代价高昂的误解,让翻译人员在各个学科间进行整合是必不可少的。
Fahad Razak是圣迈克尔医院的内科医生,也是多伦多大学的卫生政策、管理和评估助理教授,他在研究中描述了应用人工智能面临的挑战。
根据Razak教授的研究,医疗保健数据集面临的主要挑战之一是“数据质量问题,数据不准确或编码不良,但也常常是由于缺乏大量相关数据。”但是,他说,计算机科学家们并没有意识到数据是多么杂乱无章,而且由于对人工智能的大肆宣传,健康研究人员“相信人工智能是如此的神奇,但他们只能在数据质量有问题的情况下工作!”
如果每个计算机科学专业的学生都能像图费克奇教授所建议的那样,在学习变量、数组和排序时就学会寻找社会和伦理问题,他们就会意识到健康数据的编码方式非常重要。
例如,将年龄分成几个范围,分别是:19岁以下,19-24岁,25-35岁。这或许看起来无害,但1岁或17岁,都属于第一个范畴,这对患者的保健需求会产生重大影响。没有考虑到这一点的算法可能会犯致命的错误,如给出错误的剂量建议。
这些只是我们需要预防的一小部分错误。现在这一代的人工智能研究人员(少数人除外),并没有对他们正建立的人工智能的影响进行必要的测试与评估。
到目前为止,他们并没请那些受过专业培训的专家来为其提供帮助。这一点是需要改变的,否则,最黑暗的科幻小说终将成为现实。
作者介绍:Catherine Stinson是西安大略大学罗特曼哲学研究所的博士后学者,也是前机器学习研究员。
原文链接:
https://www.theglobeandmail.com/opinion/article-deep-learning-why-its-time-for-ai-to-get-philosophical/
来源:环球邮报
作者:Catherine Stinson
智能观 编译
—完—
亲爱的朋友:
相信每个AI的设计和开发人员都有一个美好的愿望,用科技解决人类的各种问题。但一个人或一个团队的认知终究是有局限性的。为了避免未来出现更多因数据或认知等造成的偏见问题,在AI发展的初级阶段进行深度思考并寻找解决方法,是应该被重视的事情。
面对不断被提及的AI伦理或偏见问题,你怎么看?
欢迎留言探讨。
安!
智能观 一米
2018-4-6 于北京 中关村
想知道AI加教育领域有哪些最新研究成果?
想要AI领域更多的干货?
想了解更多专家的“智能观”?
请在对话界面点击“找找看”,去获取你想要的内容吧。
声明:
编译文章旨在帮助读者了解行业新思想、新观点及新动态,为原作者观点,不代表智能观观点。