关于人工智能的法律思考

最近Chatgpt火爆全球,但“大嘴”马斯克随后表达出人工智能强大而危险的担忧,关于人工智能的法律问题也一直在我的脑里跳舞。本文试图从法律的角度,思考和总结出人工智能的危害性。以我浅显的理解,人工智能至少有如下四个法律问题:

1. 训练数据中的版权风险

训练数据所涵盖的内容很多,比如天气数据的训练模型,我们都清楚天气数据是不受版权保护的;有些如艺术品的训练模型,艺术品无疑是受版权保护的。因此对于训练数据的版权问题并没有一个明确的答案,需要区分受”版权保护的数据“和”不受版权保护的数据”。对于不受版权保护的数据,无疑无需考虑其版权的风险,但对于受版权保护的数据,这些数据的使用是否属于合理使用无疑是问题的关键。所谓合理使用是指在法律允许的情况下,可以不需要经过版权人许可,也不需要向其支付报酬而使用他人的作品。虽然国内司法给出了所谓的“四要素法“来实质判定,但是对于合理使用的认定,无疑是出了名的困难,大部分律师可能都很难认定,也许只有在诉讼结束时法官才会告诉你什么是合理使用,而且诉讼成本是难以承受的。因此对于人工智能的算法对于训练数据的使用,是否构成合理使用,还需要监管层面更明确的声音。

2. 隐私合规风险

训练数据中会包含个人信息的数据。当你在机器学习时,你在做什么?你通过将训练数据集输入到算法模型中,优化算法模型,最终完成输出的任务。对于涉及个人信息的训练数据,其合法性基础和处理的合规要求无疑是涉及到隐私合规的问题。对于输出的任务结果,比如ChatGPT的对话记录,不排除被认定为聊天记录的可能性,对于聊天记录目前根据个人信息安全规范的定义,是被认定为敏感个人信息,其处理行为无疑隐私合规的要求是很高的。

3. 开源许可证风险

训练数据中会包含很多代码(主要是包括开源代码),比如copilot工具使用算法模型就是利用了很多的开源代码进行训练,虽然对于程序员来说这可能是很高的辅助工具,但是其使用公开代码进行AI训练缺乏法律依据。很难找到合理使用的依据,更是被指责没有遵守开源许可证的要求。

4. 算法风险

除了数据层面的风险外,国内对于推荐类算法(生成合成类、个性化推荐类、排序精选类、检索过滤类、调度决策类)近年来也提出了明确的合规要求,多次立法监管推荐算法。而其中最直接的合规要求是推荐算法需行政备案。

以上,抛砖引玉,欢迎指点一二。

你可能感兴趣的:(人工智能,网络安全,开源,开源协议)