会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 OpenAI再度拉响安全警报:又一高层离职揭示巨大风险!

OpenAI再度拉响安全警报:又一高层离职揭示巨大风险

时间:2024-07-04 05:29:16 来源:带水拖泥网 作者:短视频 阅读:216次

OpenAI再度拉响安全警报:又一高层离职揭示巨大风险

CSS站长资源(ChinaZ.com)5月27日 消息:OpenAI最近面临了安全团队成员的再度职揭连续离职,其中包括AI策略研究员Gretchen Krueger(简称格姐)。拉响她在2019年加入OpenAI,安全参与了GPT-4和DALL·E2的警报开发,并在2020年领导了OpenAI第一个全公司范围的又高“红队”测试。现在,层离她也成为了发出警告的示巨离职员工之一。

格姐在社交媒体上表达了她的大风担忧,认为OpenAI在决策流程、再度职揭问责制、拉响透明度、安全文档、警报策略执行等方面需要改进,又高并应采取措施减轻技术对社会不平等、层离权利和环境的示巨影响。她提到,科技公司有时会通过制造分裂来剥夺那些寻求追究责任的人的权力,她非常关心防止这种情况发生。

格姐的离职是OpenAI安全团队内部动荡的一部分。在她之前,OpenAI首席科学家Ilya Sutskever和超级对齐负责人Jan Leike也已经宣布离职。这些离职事件引发了外界对OpenAI安全问题决策过程的质疑。

OpenAI的安全团队主要分为三大块:

  • 超级对齐团队:专注于控制还不存在的超级智能。

  • Safety Systems团队:专注于减少现有模型和产品的滥用。

  • Preparedness团队:绘制前沿模型的新兴风险。

尽管OpenAI拥有多个安全团队,但风险评估的最终决策权仍然掌握在领导层手中。董事会拥有推翻决策的权利,目前董事会成员包括了来自不同领域的专家和高管。

格姐的离职和她的公开言论,以及OpenAI安全团队的其他变动,引起了社区对AI安全性和公司治理的广泛关注。这些问题现在对人们和社区都很重要,它们影响着未来的各个方面如何以及由谁来规划。

(责任编辑:小程序)

相关内容
  • 女子躲暴雪提前回家被封服务区8小时:遭遇大雾 开了20多个小时
  • 王思聪卖二手劳斯莱斯:挂牌858万 8年折损近千万元
  • ChatGPT 隐私提示:限制与 OpenAI 共享的数据的两种重要方法
  • 腾讯开源人像照片生成视频模型V-Express
  • 大熊猫性感抖臀致直播间被封十分钟 人工智能「直播」AI应用有哪些?
  • 腾讯开源人像照片生成视频模型V-Express
  • 高通推出车端QQ音乐“骁龙臻品音质”  可省流达90%
  • Google Play Store整顿生成式AI应用 严控不当内容传播
推荐内容
  • 英特尔正打造价值数十亿美元的人工智能加速器业务
  • 售价超3000元 特斯拉第二款龙舌兰酒Tesla Mezcal发售
  • AI成高考作文题目!来看各大厂商的AI“考生”如何作答
  • 腾讯开源人像照片生成视频模型V-Express
  • 华为申请合界商标 此前已注册享界、傲界等类似商标
  • 男生说个出考场是因为太饿了:急着回家吃饭