会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 OpenAI 表示:我们非常重视安全!

OpenAI 表示:我们非常重视安全

时间:2024-07-02 03:58:51 来源:带水拖泥网 作者:深度 阅读:198次

OpenAI 表示:我们非常重视安全

划重点:

🚨 两位AI安全高管离职:OpenAI的表示联合创始人兼首席科学家Ilya Sutskever和“超级对齐团队”负责人Jan Leike辞职。

🔍 团队解散与安全担忧:Leike对公司领导层在AI安全方面的常重重视程度表示失望,认为公司对人工通用智能(AGI)的视安安全问题关注不足。

🛠️ 公司回应与安全措施:CEO和总裁回应称,表示公司已建立安全部署的常重基础设施,并持续改进AI模型行为和滥用监控。视安

CSS站长资源(ChinaZ.com)5月20日 消息:OpenAI近期面临重大人事变动,表示引发业界对其AI安全承诺的常重关注。上周,视安公司联合创始人兼首席科学家Ilya Sutskever宣布辞职,表示以追求其他项目。常重与此同时,视安“超级对齐团队”负责人Jan Leike也宣布离职,表示并在公开信中表达了对公司领导层的常重失望,特别是视安对AI安全重视不足的问题。

Leike特别指出,公司在人工通用智能(AGI)的安全问题上缺乏足够的重视。AGI是一种尚未实现的AI形态,能够像人类一样思考和推理。他强调,我们迫切需要认真对待AGI带来的影响,并呼吁OpenAI成为一个以安全为先的AGI公司。

对此,OpenAI的CEO Sam Altman和总裁Greg Brockman在联合声明中回应称,他们对AGI的风险和潜力有着清晰的认识。他们表示,公司一直在倡导国际AGI标准,并在检查AI系统可能带来的灾难性威胁方面发挥了先锋作用。

此外,他们还提到,公司已经建立了安全部署越来越强大系统的基础设施,并以GPT-4的推出为例,展示了公司如何在安全方面做出了大量工作,并根据部署中学到的经验不断改进模型行为和滥用监控。

据彭博新闻报道,除了Leike之外,“超级对齐团队”的其他成员也在近几个月离开了OpenAI,这无疑给公司带来了更多挑战。为了应对这一变化,公司任命了专注于大型语言模型的联合创始人John Schulman作为组织对齐工作的新科学负责人。

除了“超级对齐团队”,OpenAI还有许多专门从事AI安全的员工分布在公司内的不同团队,以及一些专门致力于安全的独立团队。其中就包括一个准备团队,负责分析和减轻与AI系统相关的潜在灾难性风险。

Sam Altman在本月早些时候的“All-In”播客中表示,他支持创建一个国际机构来监管AI,以应对可能造成的“重大全球伤害”。这表明OpenAI及其领导层对AI安全问题的认识和承诺仍然坚定,尽管公司内部的人事变动带来了一些不确定性。

(责任编辑:资讯)

相关内容
  • 苹果高通调制解调器专利授权协议延长两年 至2027年3月
  • 井陉泥狮子长得也太潦草了:“丑萌”魅力吸引广大网友
  • 余承东:华为Pura 70 Ultra是抓拍速度
  • 曝iOS 17.5恢复已删除多年照片 苹果官方暂未回应
  • InternLM-XComposer2官网体验入口 视觉语言AI模型文本图像合成在线使用地址
  • 全球中型SUV能耗!乐道L60百公里12.1度电
  • AI日报:谷歌杀器硬刚GPT-4o、Sora;字节推出豆包大模型“全家桶”;阿里再推AI虚拟试衣神器;腾讯开源混元文生图大模型
  • 4799 元起,华为 nova12 Ultra 星耀版手机售价公布
推荐内容
  • 上汽大众公布2024首月销量:ID.纯电家族再破万台
  • 法拉第未来两天暴涨超1000% 股价从6分涨到7毛
  • 2099元起 真我GT Neo6首销:骁龙8s Gen3质价比
  • 子品牌今晚发布 李斌:蔚来用户购买乐道可获3万积分
  • 女子直播被指虐猫后直接放嘴里咬 网友愤慨:行为不人道
  • 拒绝爆冷!《英雄联盟》2024 MSI胜败分组赛:T1 3:1战胜TL 晋级下一轮