再聊ChatGPT(关于安全,隐私和法律方面的风险)

再聊ChatGPT(关于安全,隐私和法律方面的风险)_第1张图片

我在上一篇博文中有谈到ChatGPT 发展可能会经历的一些阶段。ChatGPT的必经阶段:野蛮生长时代-管理层监管与风险提示-号召国产化-规范化常态化。

昨天刚好看到监管部门发文

再聊ChatGPT(关于安全,隐私和法律方面的风险)_第2张图片

 说明监管部门已经意识到到ChatGPT野蛮生长阶段,其实是存在很多漏洞和问题的。

其主要要点:

1、国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。

2、利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情信息,虚假信息,以及可能扰乱经济秩序和社会秩序的内容。

3、利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

4、禁止非法获取、披露、利用个人信息和隐私、商业秘密。

5、利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。

6、提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。

7、提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。

8、用生成式人工智能产品向公众提供服务前,应当向国家网信部门申报安全评估

9、提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。

10、提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。

11、提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

        以上要点与我上一篇文中谈到的其实不谋而合。一个新东西的产生,往往会被各方有心人利用,利用里面的漏洞,灰色地带,甚至黑色地带。在法律和监管不健全的情况下野蛮生长。未来可能有专门针对ChatGPT法律颁布都是有可能的。因为这个东西影响深远。

        未来的ChatGPT一定会走向国产化,而且外国的ChatGPT在中国有可能被永久禁止使用。站在国家安全角度,中国人不允许使用外国的ChatGPT ,所以国内的ChatGPT肯定会百花齐发,国内已经有百度、阿里、科大讯飞、360等这些公司在训练大语言模型,最后推选出最优秀的一到两个ChatGPT进行规范化和常态化管理。

ChatGPT大有用处,但最后还是作为一个工具为大家提供服务,然后植入商业广告,进行运营,未来可能不是这种按账号收钱的模式。

你可能感兴趣的:(java,人工智能)