为何上千名科技专家呼吁暂停大型AI研究?

       最近几天,人工智能风险引发了多位科技领袖的深切担忧。29日,生命未来研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。辛顿、马库斯和马斯克均签署了这封公开信。
       被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton),上周在接受哥伦比亚广播公司采访时表示,人工智能可能发展到对人类构成威胁“并非不可想象”的地步。
       随后,AI“大牛”盖瑞·马库斯(Gary Marcus)3月27日发推响应辛顿,28日又发表题为“人工智能风险≠通用人工智能风险”的文章,称超级智能可能会也可能不会迫在眉睫,但在短期内,需要担心“MAI(平庸人工智能)风险”。
       27日,推特CEO伊隆·马斯克也加入进来,表达对辛顿和马库斯的赞同。
       截至发稿,这封信已有1079名科技领袖和研究人员签名,除了马斯克、辛顿和马库斯之外,还包括图灵奖得主约书亚·本希奥(Yoshua Bengio)、《人工智能:现代方法》作者斯图尔特·罗素(Stuart Russell)、 苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、Stability AI首席执行官埃马德·莫斯塔克(Emad Mostaque)等科技界领袖人物。(来源:澎湃新闻 编辑:莘然)

       为何上千名科技专家呼吁暂停大型AI研究?

       我们发现,最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。

       人工智能系统对社会和人类构成较大的风险。尽管最近几个月人工智能实验室掀起AI狂潮,开发和部署越来越强大的数字大脑,但目前没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。

        小智认为:凡事发展都得循序渐进,尤其是对于未知AI技术的研究开发,更应该高度重视安全性、可行性和可靠性,新技术出现的主要目的是为了服务人类社会,提高社会生产质量,而不是单纯的追逐风口!

你可能感兴趣的:(多领域,AI技术,社会,人工智能,大数据,数据挖掘)