会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 谷歌“窃取”GPT-3.5模型关键信息:成本低至150元,调用API即可得手!

谷歌“窃取”GPT-3.5模型关键信息:成本低至150元,调用API即可得手

时间:2024-06-30 00:46:44 来源:带水拖泥网 作者:短视频 阅读:609次

谷歌“窃取”GPT-3.5模型关键信息:成本低至150元,调用API即可得手

划重点:

🔍 谷歌成功攻击OpenAI GPT-3.5-turbo模型,窃取成本低至150元

🛡️ 攻击方法简单,谷歌通过API不到2000次查询即可获取整个投影矩阵和隐藏维度

📢 OpenAI已知情并采取措施修改模型API

CSS站长资源(ChinaZ.com)3月12日 消息:谷歌最新研究揭示了一种攻击大型语言模型的型关息成方法,成功窃取了OpenAI GPT-3.5-turbo模型的键信I即关键信息。根据谷歌的本低声明,他们不仅还原了OpenAI大模型的至元整个投影矩阵,还获得了确切的调用隐藏维度大小,而这一切只需不到2000次巧妙的窃取API查询,成本低至150元。谷歌

攻击的型关息成核心目标是模型的嵌入投影层,即模型的键信I即最后一层,负责将隐藏维度映射到logits向量。本低通过向模型的至元API发出针对性查询,可以提取出模型的调用嵌入维度或者最终权重矩阵。谷歌通过大量查询和奇异值排序成功识别出模型的窃取隐藏维度。

该攻击方法不仅可以揭示模型的隐藏维度,还能获取模型的“宽度”(总体参数量)等全局性信息,降低模型的“黑盒程度”,为后续攻击“铺路”。研究团队表示,这种攻击非常高效,攻击OpenAI的Ada和Babbage模型以及GPT-3.5分别只需不到20美元和大约200美元。

OpenAI已经得知这一情况,并在研究团队征得同意后确认了攻击的有效性,最终删除了所有与攻击相关的数据。虽然这种攻击方式获取的信息并不多,但其低成本和高效性令人震惊。

论文中提到的防御措施包括从API下手,彻底删除logit bias参数,或者直接从模型架构下手,在训练完成后修改最后一层的隐藏维度等。在此事件曝光后,OpenAI已经采取了修改模型API的措施,防止类似攻击再次发生。

这项研究揭示了即使是大型语言模型也可能面临安全威胁,即便OpenAI已经采取了一定的防御措施。这一事件提醒了人们,保障模型的安全性仍然是一个复杂而重要的问题。

论文链接:https://arxiv.org/abs/2403.06634

(责任编辑:热点)

相关内容
  • 捕捞出售违法!比利时设陷阱诱捕300万只大闸蟹:破坏河道威胁生态 老外不吃
  • 学大教育CEO金鑫陪同民进中央领导赴黑龙江边境调研职业教育发展情况
  • “买到盗版书发现字是手写的”上热搜!实为营销号炒作 系2年前旧闻
  • 人工智能投资热潮退去 行业迎来理性洗牌
  • 华为全国都能开的高阶智驾来了!2月1日起陆续推送
  • 1688入淘、淘特迁移,阿里低价主战场缩回淘宝?
  • 小米SU7翼子板上的孔是干吗的 雷军揭秘:为了高性能
  • SuperMemory官网体验入口 AI知识管理信息整理工具免费使用地址
推荐内容
  • Google Bard 全球更新:支持40种语言、添加图像生成功能
  • 4000万粉丝的网红猫一杯被封杀,真的只是因为编了个段子?
  • 华纳等唱片公司与工会达成协议,保护AI生成歌曲中艺术家的权益
  • 5G速度测试:三星Galaxy S24在大部分国家领先苹果iPhone 15
  • OpenAI GPT 商店里这五款模型超好用
  • ​Zoom 进行大规模更新,搭载生成式人工智能技术