全球首个AI监管法案诞生了!
今年来AI领域出现了爆发式的发展,在大模型的浪潮下,全球关于AI监管的讨论也越来越热。近日,经过长时间的讨论,欧洲议会、欧盟成员国和欧盟委员会三方签署了全球首份AI监管法案——《人工智能法案》。
参与此次立法的欧盟代表称该法案是“历史性的”,欧盟成为了第一个为人工智能的使用制定明确规则的大陆。
此份AI监管法案旨在更严格地规范AI的使用,在促进创新的同时,根据AI系统的潜在风险和影响,为AI系统设定不同的风险等级。
该法案禁止可能对公民权利和民主构成威胁的AI应用,包括:
使用敏感特征的生物识别分类系统;
从互联网中“无针对性地”抓取面部图像用来创建面部识别数据库;
用在工作场所和教育机构中的情绪识别;
基于社会行为或个人特征的社会评分;
操纵人类行为以规避自由意志的AI系统;
利用人类缺陷的AI;
另外,对人类安全具有不可接受的风险的AI系统将被禁止使用。对高风险的AI技术应用,欧盟将在使用相关技术的产品投放市场前进行严格评估,建立风险管理体系。在后续试用过程中,法案将鉴定高、中、低风险的AI,通过识别不同风险来进行不同程度的监管。
出于执法目的,公共场所的实时生物识别系统除外。只有在事先获得司法批准的情况下,才允许将AI用于定义的严重犯罪(谋杀、恐怖主义、虐待)清单。也就是说该人必须被定罪或涉嫌犯有严重罪行。
除此之外,公民有权对AI系统提出投诉,并有权就影响其权利的高风险AI系统做出的决定获得解释。
欧盟议会表示,国家对“监管沙盒”和真实世界测试的支持应该有助于中小型公司开发AI应用程序,而不用受主导AI行业巨头的压力。
此外,OpenAI、微软和谷歌等科技巨头需要满足其AI模型的高透明度标准。这些公司必须披露使用了哪些数据用于训练AI模型以及如何保护AI版权。
由于AI系统可以执行各种各样的任务,并且其能力正在迅速扩展,议会同意通用人工智能系统和大模型必须满足议会提出的透明度要求。
具有系统性风险的通用AI模型需要承担更严格的义务。这些模型必须满足以下标准——进行模型评估和减轻系统性风险、进行对抗性测试、向委员会报告严重事件、确保网络安全以及报告其能源效率。
不遵守这些规定可能导致罚款,罚款范围从3500万欧元或全球营业额的7%到750万欧元或营业额的1.5%不等,具体取决于违规行为的类型和公司的规模。
AI监管法案还意味着德国、意大利和法国最近推动的“大模型自我监管”的努力失败了。
此前三国政府支持对所谓的AI大模型“通过行为准则进行强制性自我监管”。联合文件强调,《人工智能法案》监管的是AI的应用而不是技术,并指出内在风险在于AI系统的应用而不是技术本身。
目前商定的《人工智能法案》必须由议会和理事会正式通过,才能成为欧盟法律。
此前,欧盟方面一直希望推动《人工智能法案》尽早出台。
2019年以来,欧盟一直布局AI监管领域,先后发布AI伦理准则并出台《人工智能白皮书》。
2021年4月,欧盟委员会提出《人工智能法案》提案的谈判授权草案。此后,欧洲议会和欧盟理事会就草案进行了多轮修订和讨论。
2023年6月,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》谈判授权草案,推动了该法案进入立法程序的最后阶段,即举行欧洲议会、欧盟成员国和欧盟委员会的“三方谈判”,以确定法案的最终条款。
上周,三方为此展开了马拉松式的闭门谈判,其中一次谈判持续了22个小时,第二轮谈判于12月8日上午开始。漫长谈判后,于布鲁塞尔当地时间12月8日晚,三方终于就《人工智能法案》达成协议。
自去年发布ChatGPT以来,人工智能潮流迅速兴起,监管行动变得紧迫。各国政府都在努力寻找发展和安全的平衡点。拜登政府在今年10月发布了一项行政命令,重点关注AI对国家安全的影响。
欧洲则将自己定位为“全球标准制定者角色”,旨在在监管领域取得先锋地位。