2014年,特斯拉创始人Elon-Musk发布了一个Twitter——“人工智能可能比核武器更危险”,顿时引发行业热议,扎克伯格为此特意请他到家里吃饭,并约上Yann LeCun一起讨论这个话题。如今,人工智能虽已深入应用于各个行业,但关于人工智能安全威胁的讨论从未间断。例如,2018年4月,包括几十名高级工程师在内的数千名谷歌员工签署联名信,抗议公司参与一项美国五角大楼项目,利用人工智能帮助识别无人机镜头中捕获的人和物体。今年以来,国内关于AI数据隐私安全的舆论也此起彼伏。众所周知,汽车刚诞生时,出台了一系列的安全、伦理道德和技术应用方面的法律法规,AI也亟需完善。到底如何看待人工智能之于人类安全的影响?可以采取什么措施来防止这种担忧的发生?可以采取什么措施向公众保证没有什么可担心的呢?近日,美国Authority杂志采访了来自英特尔、Adobe、微软、爱立信等公司人工智能领域的女性领导者,探讨AI带来的安全挑战。(根据标准普尔指数,在福布斯500强科技公司中,女性在高级和管理职位中占比约四分之一)
Anna Bethke (英特尔AI负责人)
我认为,使用AI对人类的危害比AI本身更危险。就像锤子或者其他工具可以用来帮助建造鸟窝,但也可以用来砸花瓶,AI也如此。虽然人工智能有可能通过自我学习,拥有自我意识甚至恶意,但这非常难做到。讨论的关键是遇到恶意创建的AI时,减轻或者阻止这些负面结果的方法,并告知公众如何以及何时使用该系统。我认为,应该加大技术开发和应用的透明度,公众有发言权提出任何问题。要使得人为判断处于系统的设计,测试和应用的闭环,并实时纠正任何有害的行为,这一点很重要。
Carolina Barcenas(Visa高级副总裁)
我认为技术是我们的合作伙伴。技术当然会带来变化,但我相信我们社会的固有适应能力。尽管一些工作可能会消失(那些重复性的,可能带来很少满足感的工作),但也将创造新的工作。当前的技术创新时代并非史无前例,比如工业革命。我相信正确使用该技术最终将使我们的生活受益,而我们正处于一场重大变革的开端。 但是,我也认识到,如果技术被恶意使用可能具有毁灭性,围绕道德标准使用人工智能,进行有效监管至关重要。全球目前已经出台了非常重视数据的使用和隐私保护的政策和法规,欧洲在这方面处于领先地位,其他国家也在紧随其后。然而,我们仍处于起步阶段,我认为对人们进行“AI真正是什么”和“我们面临的AI挑战”的教育非常重要。
Tatiana Mejia(Adobe AI负责人)
人工智能是我们开发的一种工具,Adobe作为一个社区,我们有责任指导如何创建和使用它。技术本身并不存在好坏,在Adobe,我们的AI服务于开发者并尊重消费者。我们正在仔细研究这个问题,并实施有关数据隐私,数据治理,数据多样性等方面的流程和准则,并主导透明和持续的对话。我们有时还会引入实验性的“秘密”AI技术,但我们会为用户共享潜在的功能(其中一些功能永远不会运用于产品中),以便从我们的客户和社区获得真实、即时的反馈,包括这些创新对他们意味着什么,有什么作用,有什么可以改进的,什么可以对创意和营销人员产生更大的影响和意义。
Marie Hagman(Zillow人工智能总监)
在整个历史中,人们一直在使用新技术来完成令人惊奇的事情,并给他人带来痛苦。比如社交媒体在Arab Spring期间传播核能和原子弹发挥的作用是帮助人们进行政治组织,但今天它在传播错误信息方面发挥了作用。我是一个乐观主义者,认为AI收益将远大于风险。我们需要保持技术先进性,同时采取安全措施,并采取更快的行动来创建和更新公共政策以帮助减少风险。我认为我们不能或不应尝试向人们保证没有什么可担心的。人们应该被告知风险并保持警惕。我们应该建立保护社会免受不良行为影响的体系,包括执法,司法系统和公共政策,并且我们应该在那些领域中设立负责人,他们应被告知并优先考虑防范AI构成的威胁。公共政策通常太慢而赶不上技术变化。
MadelaineDaianu博士(Intuit数据科学高级经理)
我预计,随着我们技术的进步,这些辩论只会越来越激烈。有人认为这些争论为时过早,主要是因为当今的AI系统非常有限。我们尚未发现建立超级智能的意义,因此,我们尚无所有正确的信息来确定如何最好地减轻任何潜在的危害。我认为科技界应该从短期和长期来考虑AI端到端的影响。作为这项技术的贡献者,我们有责任计划AI可能带来的潜在影响。
Doris Yang(BlackBerry Cylance高级总监)
AI的当前状态取决于人类如何定义我们正在寻找的问题和答案的边界以及处理这些问题所需的数据。机器人明天不会占领世界,也就是说,不管自我意识机器人多长时间能够实现,负责任地谈论AI的使用和应用对社会绝对重要。我们目前仍然存在隐私和透明性的问题,比如关于收集个人数据,用途是什么以及谁可以访问它。AI驱动的解决方案有许多直接的好处,但是我们也应该积极考虑负责任的治理,以便我们可以继续从中受益,而不会放弃更多的自由。我不想说绝对没有什么可担心的,因为那会促进自满。我们需要开始设定我们的基本界限,并保持警惕,并不容侵犯。有意识的机器人并不是唯一令人担忧的,首先,人们应该考虑隐私和安全性。比如一些简单的事情,AI能够预测一个人喜欢什么,他们倾向于做什么,以及他们将如何回应,这些在购物推荐,营销活动等方面都有很好的应用。但是,当不法分子获得这些信息时会发生什么呢?银行是否可以根据你可能做的事情拒绝你的贷款?政府是否应该能够创建和维护公民的个人资料,并根据概率或可能的结果对其进行排名?
Marina Arnaout(Microsoft经理)
历史表明,每当一项伟大的发明落入坏人之手,邪恶就会盛行。目前,我们正处于AI的早期阶段,目前正在探索可以很好地利用AI的许多潜在好处,AI可以帮助预防自然灾害,或者为盲人以及更多种形式的业务提供更大的帮助。人工智能能为社会和企业带来许多好处,但超智能的AI可能会带来各种不利影响。通过以人类无法跟上的步伐大幅改变劳动力,可能会对经济产生重大影响,并带来许多道德挑战。这是一个全球性的问题,它需要世界各地的政治和商业领袖坐在一起讨论,来自不同政治体系的全球领导人需要协调一致,以确保道德,数据保护和准则具有对称性,并且对公众完全透明。
Elena Fersman(爱立信AI研究负责人)
每一项新技术都会带来威胁。AI是特殊的,它能够自我学习,所以我们应为其发展设定条件或界限。我们需要承担责任,并规定这些算法永远都不能打破的“游戏规则”。这些规则与人类必须遵守的法律,法规,道德框架和社会规范没有什么不同。为避免此类担忧,应该以AI系统所理解的语言来实施“生存规则”。也就是说,我们需要将这些规则数字化,确保框架和软件架构具有灵活性并允许修改,并且算法可以保证它们遵守这些框架。
韩超(Lucidworks副总裁)
人工智能可以应用于许多有益于社会的应用,例如医疗保健和自动驾驶汽车。但是,在武器开发或基因编辑领域,危险团体(例如恐怖分子)滥用AI是令人担忧的。当前,人工智能不具备自我学习的能力来故意伤害他人或通过互联网相互连接以进行大规模破坏,但是,如果在未来进行精心控制,这些行为是可能的。当前没有任何集中化的组织来规范AI行业和研究。我们高度依赖大型IT公司的良好意愿,并遵循标准的模型构建流程,以防止AI偏见或滥用。我希望能尽快成立这样的组织,以赢得更多的公众信任。
TrisalaChandaria(Temboo首席执行官)
新技术带来了机遇,但也有可能给人类带来危险,这就是技术的本质。汽车刚刚诞生时,我们必须建立基础设施,安全措施和其他技术来适应它们。道路,驾照,安全带和安全气囊等所有东西都需要确保公众能够安全有效地使用汽车。在开发AI技术时,我们需要考虑安全、基础设施、法律等因素。只要我们把那些事情考虑进去,我们就可以很好使用人工智能。我们不应该试图阻止人们有顾虑。人们可以询问他们的数据是如何被使用的,哪些技术正在影响他们的生活,人工智能是如何影响社会。担忧和恐惧是有区别的,我们不想吓走人们对新技术的兴趣,但确实应该确保他们在影响他们日常生活的技术方面有所选择。AI时代的领导者有责任确保公众知道有权力来做出这些选择。