人类如何走出人工智能伦理的困境

近日,中国发布了首个国家层面科技伦理治理指导性文件——《关于加强科技伦理治理的意见》。“意见”指出,重点加强生命科学、医学、人工智能等领域的科技伦理立法研究,为新兴技术伦理治理设置了“红绿灯”。

重点谈一下当前最热门的人工智能技术。当人工智能越来越多地渗透到我们日常生活中的方方面面,人类社会在加速迈向智能化、数字化的同时,科技伦理问题也紧随而来。例如,机器人击败人类围棋世界冠军,自动驾驶事故频发,虚拟人引起职场焦虑,人脸识别泄露隐私安全,很多人开始对科技伦理问题表示担忧。

人工智能也会引起就业恐慌,伴随AI技术的飞速发展,虚拟人快步走向商业化。而眼看着一个个身怀绝技的虚拟人走进职场,“打工人”越发担心自己的“饭碗”会不会被抢走。要知道这些虚拟人可不止能做到“996”,还能“007”,甚至可以全年无休,连工资都不用给。

很多科技大佬已经认识到人工智能是把双刃剑,但是对待它的态度是复杂的。比如特斯拉公司CEO马斯克,他一边警告说人工智能“脱轨”发展是人类当前面临的三大威胁之一,要避免彻底开发人工智能。另一边又在积极开发与人友好的人工智能,通过脑机接口技术寻求人类和人工智能共生之路,其公司业务也几乎都与人工智能相关。

有专家指出,目前,人工智能伦理治理主要涉及四大难点:一是可控性和安全性;二是可靠性、精确性和稳定性;三是可解释性和透明度;四是问责追责问题。

其实对于任何技术来说,都不能脱离开法律法规、社会道德、行业规范等约束条件而无序发展。在这一点上,人工智能也不例外。在合法合规、合情合理的框架下,人工智能只会发展地更好、更健康。

人工智能已经对整个人类社会产生了深刻影响。能力越大的技术,越是需要妥善治理好。人工智能既是我们创造美好生活的重要手段,也是需要进行妥善治理的对象。然而截至目前,人工智能伦理治理还是一个新命题,没有太多历史经验可以参考,整个行业也在“边发展边治理”,逐步完善法律法规和凝聚道德伦理的共识。

在人工智能预警方面,有一位学者早有觉察,走在了世界前面。著名人类学家、拯救人类行动组织理事长胡家奇早在2007年,在他的著作《拯救人类》书中就提出,人工智能技术终将产生自我意识并取代人类。因为技术的发展速度要快于生物的进化速度,当人工智能发展完善后,可能会导致人类灭绝。又过了7年,霍金在2014年说出了类似的话,人工智能早晚会自我意识觉醒,如果到那个时候,我们想控制它就难了。

特别要提到的是,从《拯救人类》第一次出版至今,十几年来,胡家奇通过各种渠道和方式,不断提醒着全世界:“我们人类不能够全面准确判断科学技术的安全性”,“不能够理性使用好科学技术”,“科学技术有灭绝人类的能力,就在前方不远。”

随着科技进步和时代发展,人类开始不得不正视人工智能的风险问题。不仅是人工智能,还包括所有科学技术。当人类没有能力完全把控时,要警惕科技的发展,限制科技的发展,以免带来无法预知的灾难。

你可能感兴趣的:(人类如何走出人工智能伦理的困境)