人工智能两派分立,是时候对人工智能进行监管了

近日,科技圈很是热闹,两位科技圈大佬就人工智能的互怼吸引了无数眼球。

特斯拉和Space X的创始人、有着硅谷钢铁侠之称的伊隆马斯克在多个场合发表了不少人工智能威胁论,他警告科技圈人士,称他们研究AI或许就是在创造自我毁灭的途径,并表示AI的发展远快于人们意识到的程度,再继续研发下去可能创造出“恶魔”。

Facebook创始人扎克伯格则直接反驳了马斯克的言论,他认为AI将大大提高我们的生活质量。哪些争论或是拖累AI发展进程的人是非常不负责任的。

两人针锋相对,互不相让,引发科技圈众多大佬纷纷站队,一时好不热闹,再次引发了人们对人工智能这一话题的争论。

扎克伯格和马斯克的这场争论战只是科技圈对于人工智能态度的一个缩影,从人工智能诞生以来,关于它的争议就从来没有停止,在科技圈,根据对人工智能的态度不同,一直以来都分为两大阵营,分别是“AI威胁派”和“AI和谐派”,他们明争暗斗,互喷了数十年,一直难分胜负。

给AI威胁派撑门面的有霍金、比尔盖茨这类在业界有着巨大影响力的大咖。霍金曾向BBC表示:“我认为人工智能的完全发展可能预示着人类的终结。”比尔·盖茨也认为,人工智能将最终构成一个现实性的威胁,AI可能比核灾难更危险。

而AI和谐派阵营则有谷歌联合创始人拉里佩奇、业内权威专家吴恩达等在人工智能领域深耕多年的企业家和学者,他们坚称“技术无罪论”,认为AI真实存在的风险与纯属想象的危机只存在于科幻小说和科幻电影当中,其对人类社会做出的贡献才应当被关注。

从上可看出,这两大门派争论的出发点是不同的,一派是着眼于未来,一个超级人工智能诞生、失控的未来;一派更专注于当前,认为当前AI能更大程度上地造福人类。

在AI和谐派眼中人工智能失控的情形离我们还很遥远,无须担心,但是所有对未来的恐惧都来源于无法预测,真是因为人工智能的不可预测性,所以我们更应该提前防范。扎克伯格之流对AI能够带来的好处自有其道理,但也有其狭隘之处,马斯克们所担心的情况也不是杞人忧天,但也颇有一叶障目之嫌。人工智能的的复杂程度远非几场争论就能解释清楚,与其大费口舌,不如落到实处,推出切实可行的方案。目前来看,结合两派的观点,在保证人工智能发展的前提下,对其进行监管才是正道。

为什么要对人工智能进行监管呢?道理很简单,因为人工智能失控起来很可怕。

虽然我们有一整套深度学习的方案来训练AI,但是我们永远无法知道他们是怎么学习的,也就是他们的内部吸收知识和消化信息的机制是怎样运转的,这是人工智能的一个暗箱。而随着人工智能继续高速发展下去,未来AI一旦超过临界点,出现了ASI(超级人工智能),有了意识和情感,很可能会和人类社会一样,出现走入歧途的AI。

那样的话,电影《终结者》系列里面天网(Skynet)在获得自我意识和意志之后,倒戈人类的情节也很可能会出现;《异形:契约》里生化人大卫在意识觉醒,拥有了比人类更高阶层的思考和顿悟之后,企图铲除人类的情节也未必就真的只存在于科幻电影当中。

此外,人类历史上曾经有过前车之鉴可供参考。

一个是氟利昂。过去空调冰箱都用这个东西。因为方便便宜,制冷效果也好。用了很多年后才发现,氟利昂对大气层有巨大的破坏作用。

另一个是含铅汽油。托马斯·米吉利倾毕生心血发明了含铅汽油来提高汽油性能,结果却造成了对环境和人类健康的巨大危害。

这些都是由于只关注于眼前的利益而造成了巨大的危害的例子,而由于人工智能的特殊性,一旦出现问题,其带来的影响将远远大于氟利昂和含铅汽油。

那么,如何对人工智能进行监管呢?

笔者认为,首先应当建立针对人工智能的专业监管部门,制定人工智能发展的法律法规和伦理规范,建设起公开透明的人工智能监管体系。只有在政府层面制定了完善的人工智能游戏规则,才能更好的防止人工智能的滥用。

其次,各大深耕人工智能领域的企业和学者应当首当其冲规范好自身的道德行为准则,互相监管,将人工智能运用在造福人类的美好使命当中,而不应在利益的驱动下,将人工智能引入歧途,创造出毁灭人类的“恶魔”。

总之,为了防止人工智能带来的灾难发生,未雨绸缪,尽早对人工智能进行主动的监管才是当前需要解决的问题。令人欣喜的是,国内政府已经意识到了这一点并采取了行动。

上个月,国务院发布了《新一代人工智能发展规划》(简称《规划》),《规划》强调,建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度。

《规划》的发布意味着中国政府正式将人工智能的监管提上了日程,虽然距离推出切实可行的方案还尚需时日,但至少踏出了第一步,未来的前景还是相当乐观的。

你可能感兴趣的:(人工智能两派分立,是时候对人工智能进行监管了)