坚持不作恶,谷歌数十名员工集体辞职抗议AI军事合作



硅谷Live / 实地探访 / 热点探秘 / 深度探讨


文章来源:AI前线策划编辑 | Natalie撰文 | Vincent

差不多一个月之前,谷歌宣布与五角大楼合作,进行人工智能军事项目的研究,该项目将利用人工智能解读视频图像。


据报道称:谷歌的 AI 技术有可能被用于提高无人机打击的准确度。此事直接导致近 4000 名谷歌员工联名抗议,强烈反对将 AI 技术用于军事研究。


遗憾的是,谷歌员工的抗议似乎并没有起到什么效果,一个月之后,谷歌高层仍然不放弃与五角大楼的合作,Maven 项目仍在继续。于是,十几名谷歌员工集体宣布辞职,以此来反抗谷歌的作为。


前美国国防部官员保罗·斯查瑞表示,由于谷歌的企业文化历史和军队对于人工智能技术日益增长的需求之间的矛盾,谷歌公司内部的分歧是不可避免的。


 以“不作恶”为信条的谷歌变了吗?

从历史上看,谷歌推广了一种鼓励员工挑战和讨论产品决策的开放文化。但是一些员工认为他们的领导不再关心他们的担忧,而让他们直接面对后果。“在过去的几个月里,我对这种回应,以及对人们所关心问题的处理和倾听方式越来越失望。”一位辞职的员工说。

三年前,也就是 2015 年,谷歌曾经也爆发过一次大规模的员工集体抗议事件,那时候,员工强烈反对在其博客平台中传播色情内容。当时的员工同样是以“不作恶”这句座右铭来向谷歌施压,那一次他们成功了。

或许在色情内容面前,谷歌实在是找不到什么站得住脚的解释来支撑自己做下去。一直以来谷歌都被认为是一家广告公司,但即便如此,有些广告也是做不得的——虽然利益可能真的很高。

三年后,“不作恶”的谷歌给自己找到了合适的理由,他们与五角大楼合作的名为 Maven 的项目,利用人工智能解读视频图像,按照美国军方的说法:这样做的目的是在进行军事打击的过程中避免误伤友军,不仅可以提升打击精准度,还可以减少自家军队的伤亡。

虽然不知道谷歌坚持与五角大楼合作的背后,到底谷歌自愿的,还是因为某些“不可抗力”,但是,对于谷歌的员工们而言,他们无法接受军方的解释。在相当一部分员工眼里,这次的谷歌就是在“作恶”,违背了原则,身为谷歌的一员,他们认为必须站出来,捍卫这家公司一直以来的信条。

一位辞职抗议的员工这样说:“这完全不应该是谷歌的作为,反倒是像一个满世界寻找合作的机器学习初创公司干的事。看来谷歌的原则与声誉都已经不重要了。”

 军方将如何使用 AI 技术?

说到军用 AI 技术,想必很多人脑海里的第一个产品就是无人机了。

这部名为《杀人机器人》的短片,是由 Autonomousweapons.org 和加利福尼亚大学计算机科学教授 Stuart Russell 合作制作的,目的是为了警醒世人,未来随处可见的杀人机器人,可能将置人类于危险的境地,因为自动化武器可以在无人指导的情况下,定位并射杀人类。

影片描述了迷你无人机群刺杀政治活动家和美国律师的故事,只有巴掌大的无人机 通过实时数据挖掘和人工智能,血腥猎杀目标。除了短片本身的惊悚以外,更让人不寒而栗的是,影片中描写的科技都是现存可行的技术,如面部识别、自动定位、无人机等

很凑巧的是,谷歌参与的 Maven 项目中,就会运用到这些技术。此外,谷歌还将提供用于机器学习应用的 TensorFlow API,以帮助军事分析人员检测图像中的物体。

除了无人机,各国在机器人领域的研究也让人倍感担忧,一旦战争机器人量产,发动战争将更加轻而易举,同时带来的破坏也将是呈指数增长的。

没错,对于这些研究,我们不能光看到不好的那一面,也要想想他们带来的益处,比如增加国防实力、减少人类士兵伤亡等等,但是,当这些技术手段落入恐怖分子的手中,还会有人这么想吗?战争已经足够残忍了,为何还要用科技让它变得更加恐怖。

 给佩奇、Pichai、Diane Greene 和李飞飞的公开信

就在上周,国际机器人武器控制委员会(ICRAC)发布了一封公开信,短短数小时内,已有超过 300 名人工智能、伦理学和计算机科学领域的学者联名,公开呼吁谷歌结束其对 Maven 项目的支持,转而支持禁止自主武器系统的国际条约。

这封信的两位作者彼得·阿萨罗(Peter Asaro)和露西·苏希曼(Lucy Suchman)曾在联合国就自动武器问题作证,第三位作者 Lilly Irani 是一位科学教授、前谷歌员工。

苏希曼表示,谷歌对 Maven 项目的贡献完全可能加速全自动武器的开发。虽然谷歌总部位于美国,但它有义务保护全球用户群,而不是与任何一个国家的军队结盟。谷歌的高管们正在为参与 Maven 项目辩护,包括 Google Cloud 业务主管黛安·格林 (Diane Greene),她曾多次力挺这个项目。

在这封支持谷歌员工的公开信中,他们是这样说的:

尽管 Maven 项目的报告目前强调了人类分析师的作用,但这些技术有望成为自动目标识别和自主武器系统的基础。随着军事指挥官们将目标识别算法视为可靠,它将会吸引人们对这些系统进行减弱甚至消除人为审查和监督。据国防部称,国防部已经计划在无人机上安装图像分析技术,包括武装无人机。然后,我们距离授权自动无人机自动杀人,而不需要人工监控或有意义的人员控制,只需要一小步。科技公司的道德行为需要考虑谁可能受益于技术而谁又可能受到伤害

我们也非常担心 Google 可能将人们日常生活的数据与军事监控数据整合在一起,并将其与有针对性的杀戮结合起来应用谷歌已经进入军事工作,无需在国内或国际上进行公开辩论或审议。虽然谷歌在没有民主公众参与的情况下经常决定技术的未来,但其加入军事技术会将信息基础设施的私人控制问题变得突出。

如果谷歌决定将全球互联网用户的个人数据用于军事目的,那么它将侵犯公众的信任,因为它将用户的生命和人权置于危险之中,这对其业务至关重要。

像谷歌这样的跨国公司,其责任必须与他们的用户的跨国化相匹配。根据谷歌所考虑的国防部合同,以及已经在微软和亚马逊上签订的类似合同,都标志着私人科技行业之间的危险联盟,这个联盟目前拥有大量来自全球各地的敏感的个人数据,以及一个国家的军队。它们还表明,未能与全球公民社会和外交机构进行接触,这些机构已经强调了这些技术的道德风险。

我们正处于关键时刻。剑桥分析公司 (Cambridge Analytica) 的丑闻表明,公众越来越担心科技行业将拥有如此大的权力。这使得信息技术基础设施的风险越来越高,以及当前国家和国际治理框架的不足以维护公众的信任。这种情况比从事裁决生命和死亡的系统更为真实。

就像欧盟一直没有同意 Facebook 等公司在欧洲建立数据中心,没有人愿意自己国家公民的个人数据掌握在其他国家手中,更不要说被其他国家用来进行军事研究。科技公司掌握了全球用户的个人信息,其目的在于为用户们提供定制化服务。当这些信息被军方所拥有,难道目的也是给全球的用户们进行“定制化制裁”吗?

还有一些 AI 专家主要关注的是现有技术仍然不可靠,并且可能被黑客控制而作出非预期的战场决策。纽约大学 AI 研究员加里马库斯说:“我不会相信任何软件来做关键任务的决定。” 马库斯说,Maven 项目属于道德“灰色地带”,因为公众并不知道该软件将如何使用。“如果谷歌希望从事为军队做分类的事情,那么公众有权关心 Google 正在成为什么样的公司。”

 

尾声

有关 AI 武器问题的讨论已经不是第一次了,在任何时代,安全性都是最重要的。2015 年曾经曝出特斯拉被黑客操控,高速路上狂奔的消息,足见目前 AI 技术的漏洞还是很多的,至于所谓 AI 武器,正如上面那位专家所说,一旦被黑客入侵,后果将会不堪设想。

我们期待科技能够发展得足够好,好到可以让整个世界都更加美好,但是就像谷歌的座右铭所说:不作恶,应该是底线。





推荐阅读

区块链报告 | 脑机接口报告 

硅谷人工智能 | 斯坦福校长

卫哲 | 姚劲波 | 胡海泉 

垂直种植 | 无人车

王者荣耀 | 返老还童 




你可能感兴趣的:(坚持不作恶,谷歌数十名员工集体辞职抗议AI军事合作)