刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露

ChatGPT 又一次陷入了安全漏洞风波。

国外一位用户在使用ChatGPT时表示,他原本只是进行一个无关的查询,却意外发现在和ChatGPT的聊天记录中出现了不属于自己的对话内容。

对话泄露了很多非用户本人的信息,其中包含了大量敏感内容。

如下图泄露了一名陌生用户正在利用ChatGPT排除故障的应用程序的名称以及发生问题的具体的商店编号。

泄露的信息甚至包含了能够链接该陌生用户应用系统的用户名和密码:

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第1张图片

另外泄露的其他对话还包括某人正在制作的ppt:

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第2张图片

还泄露了未发表的研究论文计划的详细信息:

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第3张图片

以及使用 PHP 编程语言的脚本:

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第4张图片

甚至这名用户在咨询ChatGPT帮忙制作简历时的个人经历:

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第5张图片

对于此事,OpenAI 解释这可能是因为该用户的账户被他人在异地登录使用,但该用户表明自己的密码挺复杂,且只有自己在用,他怀疑自己的帐户已被盗用。

其实早在23年11月,国外一名研究人员发表论文报告了他们如何使用查询促使 ChatGPT 泄露电子邮件地址、电话和传真号码、实际地址以及用于训练 ChatGPT 大语言模型的材料中包含的其他私人数据。

由于担心专有或私人数据泄露的可能性,包括苹果在内的公司限制其员工使用 ChatGPT 和类似网站。

不要把裸照发给ChatGPT

同样是23年11月,一位用户在向 ChatGPT 询问 Python 中的代码格式化包 black 的用法时,没有一点点防备,ChatGPT 在回答中插入了一个陌生男子的自拍照,打了用户一个措手不及。

随机有网友展开追溯,证实这张自拍于2016年12月7日被上传到图片分享平台 Imgur,证明这张自拍不是 ChatGPT 胡编乱造自己生成的,而是其他用户真实的”自拍“,同时,这另一方面也表明 Imgur 必然是 ChatGPT 的训练数据集之一。

一网友也表示:“这件事给我们的教训就是,凡是你上传到网上的都有可能变成训练数据……”

所以,使用ChatGPT的用户请当心!

ChatGPT 对于聊天记录的使用非常清楚,大多数情况下,你上传或所说的所有内容都将用于重新训练 ChatGPT, 除非你关闭聊天记录!

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第6张图片

最后更是有网友后悔自己上传了“裸照”:

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第7张图片

所以说家人们,和ChatGPT聊天要谨慎啊,尤其要注意不要把裸照发给ChatGPT !

One More Thing:ChatGPT@功能全量上线

OpenAI在推特上官宣,ChatGPT的@功能全量上线啦!

只需一个@就能召唤任意GPTs为你打工!

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第8张图片

二狗我找朋友确认了下,果然,只要你在输入框输入一个 “@”,就能选择GPT.

刚刚,ChatGPT再爆安全漏洞!大量私密对话被泄露_第9张图片

芜湖,大家赶紧试玩起来吧~

 

你可能感兴趣的:(chatgpt,人工智能)