ChatGPT被曝泄露私密对话 遭OpenAI否认
1月31日消息,曝泄据外媒报道,露私OpenAI旗下的密对人工智能聊天机器人ChatGPT再次被曝安全漏洞。
据悉,话遭ChatGPT是曝泄OpenAI于2022年11月30日推出的一种新型AI聊天机器人工具,可根据用户的露私要求快速生成文章、故事、密对歌词、话遭散文、曝泄笑话,露私甚至代码,密对并回答各类疑问。话遭
生成式AI在某些情况下非常有用,曝泄但也存在许多问题。露私现在,密对ChatGPT的另一个问题出现了。
本周一,外媒援引一名用户分享的几张截图报道称,ChatGPT正在泄露私密对话,包括无关用户的用户名、密码以及其他个人信息。除此之外,泄露给这位用户的其他对话内容还包括某人正在制作的演示文稿名称,一份未发表的研究提案的细节,以及一个使用PHP编程语言的脚本。每次被泄露的对话的用户似乎都是不同的,而且彼此互不相关。
对此,OpenAI方面称,外媒的报道是不准确的,这名用户报告的ChatGPT历史记录是由于他的ChatGPT账户被盗用造成的。显示的聊天历史和文件是这个账户被滥用的对话,而不是ChatGPT显示了另一个用户的历史。
OpenAI表示,它正在对此事进行调查。无论调查结果如何,都建议用户不要与人工智能聊天机器人分享敏感信息,尤其是在不是自己开发的机器人上。
据悉,这不是ChatGPT第一次出现信息泄露问题。2023年3月份,OpenAI曾将ChatGPT下线,原因是一个漏洞导致该网站向无关用户显示活跃用户的聊天记录中的标题。当时,该公司表示,在将ChatGPT下线之前的几个小时,一些用户可以看到另一个活跃用户的姓名、电子邮件地址、支付地址、信用卡号的后四位数字以及信用卡到期时间。后来,OpenAI修补了该漏洞,并报告了该问题的技术细节。
这是ChatGPT首次遭遇重大个人数据泄露。为此,OpenAI还发布一份声明详细解释了这一切是如何发生的,并向用户和整个ChatGPT社区致歉。
2023年11月份,谷歌的一组研究人员发现,通过要求ChatGPT“永远”重复某些单词,可让ChatGPT泄露被用于训练的数据,包括私人信息(比如,个人姓名、电子邮件、电话号码等)、研究论文和新闻文章的片段、维基百科页面等等。不过,研究人员表示,OpenAI在2023年8月30日修补了这个漏洞。
由于担心专有数据或私人数据可能泄露,包括苹果在内的许多公司都限制员工使用ChatGPT和类似网站。
本周一,意大利数据保护局(Garante)宣布,OpenAI的ChatGPT以及用于收集用户数据的技术违反了该国的隐私法。
据悉,意大利数据保护局于2023年3月底针对OpenAI启动了调查,并已将调查结果告知了OpenAI,OpenAI将有30天时间来对该调查结果做出回应。(小狐狸)
(责任编辑:深度)
- ·比开车快2小时!安徽男子开小飞机带女儿回家过年
- ·TikTok电商大盘三位数增长,为什么赚钱的不是我?
- ·谷歌推出ASPIRE框架 让大模型具备自我判断意识
- ·小米14 Ultra国际版即将登场!小米官网开启倒计时
- ·微信新安装包突破700MB 官方宣布推出龙年头像、送福壁纸
- ·AI视野:通义千问发布Qwen1.5;背景分割开源模型RMBG v1.4来了;OpenAI 为 DALL-E3添加新水印;苹果图片项目MGIE上线试玩
- ·龙行龘龘怎么读发音怎么念为何生僻字热起来了? AI生僻字汉字学习字形解析应用有哪些
- ·京东员工免费春节探亲房内景曝光:家电齐全 独立卫浴
- ·两广地区家里水帘洞户外南天门 网友:南方的回南天有多离谱
- ·WONDERA官网体验入口 AI驱动的创作娱乐应用免费试用地址