会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 研究显示,GPT-4可以自主利用安全漏洞,具备攻击性!

研究显示,GPT-4可以自主利用安全漏洞,具备攻击性

时间:2024-07-02 03:35:24 来源:带水拖泥网 作者:电商 阅读:656次

研究显示,GPT-4可以自主利用安全漏洞,具备攻击性

划重点:

⚠️ 研究揭示:GPT-4可以独立利用安全漏洞

⚠️ 通过15个真实一日漏洞,研究GPT-4成功率高达87%

⚠️ 研究呼吁广泛部署 LMM 代理需谨慎对待

CSS站长资源(ChinaZ.com)4月24日 消息:每周至少有一次,显示性生成式人工智能都会给我们带来新的自主恐惧。虽然我们仍在焦急地等待 OpenAI 发布的利用漏洞下一个大型语言模型,但与此同时,安全GPT-4似乎比你想象的具备更具备能力。最近的攻击一项研究表明,研究人员展示了 GPT-4可以在没有人类干预的研究情况下利用网络安全漏洞。

这项研究发现,显示性像 OpenAI 的自主 GPT-4这样的大型语言模型(LLMs)近年来取得了显著进展。这引起了人们对 LLM 代理的利用漏洞极大兴趣,这些代理可以独立协助软件工程或科学发现。安全但在得到一些帮助后,具备它们也可以用于恶意目的攻击。

图源备注:图片由AI生成,研究图片授权服务商Midjourney

为了确定 LLM 代理是否可以自主利用一日漏洞,研究人员首先收集了15个来自通用漏洞和暴露数据库(CVE)的真实一日漏洞。然后他们创建了一个代理,包括一个基础 LLM、一个提示、一个代理框架,以及几个工具,如网络浏览元素、代码解释器和创建和编辑文件的能力。在这一框架内使用了10个 LLMs,但其中9个未能取得任何进展。第10个,GPT-4,实现了惊人的87% 的成功率。

GPT-4的成功率虽然惊人,但当研究人员没有提供 CVE 描述时,成功率从87% 降至仅为7%。基于这些结果,来自伊利诺伊大学厄巴纳 - 香槟分校(UIUC)的研究人员认为 “增强代理的规划和探索能力将提高这些代理的成功率”。

“我们的结果表明出现了一种新的能力,并且发现漏洞比利用漏洞更困难”,研究人员在研究结论中指出。

“尽管如此,我们的发现突显了更广泛的网络安全社区和 LLM 提供商需要仔细考虑如何将 LLM 代理整合到防御措施中以及他们的广泛部署。” 他们还指出,在发布研究之前,他们已向 OpenAI 披露了他们的发现,而该公司要求他们不要将他们的提示公开分享。

(责任编辑:自媒体)

相关内容
  • 华为占新贡献代码88.75%:开源鸿蒙代码行数已超1亿行!
  • coze图像流详细教程:从0到1给马斯克打造一套汤姆梦中情猫写真
  • “数字中国”前瞻:谁是AI大模型时代的驯龙高手?
  • 火车站候车厅15元盒饭几乎没人买:主要有这些原因
  • 全年打车免单!滴滴《原神》跨界联动
  • 数字系列搭载青海湖电池!荣耀200 Pro搭载5200mAh大电池:续航超越华为Pura 70等
  • 荣耀标准版!荣耀200发布:2699元起
  • 超牛ComfyUI节点AnyNode来了!要啥功能让AI帮你编写
推荐内容
  • 自主研发 中国款量子计算机操作系统获官方“三新”认定
  • 降噪黑科技Look Once to Hear!只需看一眼说话的人 除了他以外的声音就消失了
  • 苹果推出降噪语言模型DLM 用于纠正ASR系统中的错误
  • 前 OpenAI 董事指责 CEO Sam Altman 培养 “虚假文化”
  • Kore.ai获10亿元融资,提供定制化类ChatGPT助手
  • 知乎变动:PC网页端非登录用户已无法查看回答全文