云AI就像核电

在最近的一次演讲中,谷歌和Alphabet首席执行官Sundar Pichai呼吁在AI领域制定新法规,重点显然是AI已被云计算商品化。 既然我们正在辩论围绕AI技术使用的道德问题,这就不足为奇了:最重要的是,AI对于企业和不良行为者来说,如何轻松地实现计算武器化。

Pichai强调了诸如面部识别和“ deepfakes”之类的技术带来的危险,在这些技术中,使用人工神经网络将一个人的现有图像或视频替换为其他人的肖像。 他还强调,任何立法都必须在“潜在危害……与社会机会”之间取得平衡。

[ 同样在InfoWorld上:AI可以真正为您的业务做(以及不能做的事情) ]

今天的AI比几年前强大得多。 人工智能曾经驻留在超级计算机领域,而这些超级计算机要花费大量的预算才能使用。 云计算使AI成为按需服务,即使小型企业也可以负担得起。 此外,人工智能服务的研发支出也出现了巨大的增长。 人工智能提供商在创新和可提供的众多功能方面都在争夺顶级。 这包括易于构建和训练的知识模型,并且可以轻松地与新的和现有的应用程序集成。

我可以比喻为AI就像核电。 两者都有潜力需要被抓住。 两者都需要限制以确保它们不会被滥用。 核能提供廉价的碳轻电,人工智能有潜力为我们提供无人驾驶汽车,并挽救医疗保健行业数十万人的生命。 都不需要监管吗?

大多数技术都有可能被使用,无论其好坏。 人工智能和核电无疑属于这一类。 人工智能的风险在于,某些组织出于完全合理的原因可能会利用它,但最终会在道德上进行可疑的事情。

例如,零售商店中的面部识别可以建立图像和个人信息的数据库,并将其出售给营销公司。 始终保持安全摄像机是一回事,而当安全摄像机可以发现您是谁,您的婚姻状况,性行为,人口统计信息以及其他可通过AI驱动的大数据分析收集的信息时,则是另一回事。

意料之外的后果定律在这里确实很危险。 如果法规在全球范围内被创建和采用,但未在全球范围内实施,那么它们在限制AI滥用方面将几乎没有效果。 公有云是国际性的。 如果在某个国家/地区使用某种形式的AI是非法的,则很容易转移到另一个地区。 我们已经通过数据处理安全性做到了这一点。 AI处理不会有任何不同。

From: https://www.infoworld.com/article/3516111/cloud-ai-is-like-nuclear-power.html

你可能感兴趣的:(云AI就像核电)