微软、亚马逊、IBM 承诺公布 AI 模型的安全措施
划重点:
- 📝 几家领先的微科技公司承诺在 AI 安全峰会上公布他们开发基础模型时所采取的安全措施。
- 📝 这些公司同意如果无法控制或减轻 AI 模型所带来的软亚风险,则不开发或部署该模型。马逊I模
- 📝 承诺适用于基础或 “前沿” 模型,承措施即可以应用于广泛应用领域的安全 AI 模型。
CSS站长资源(ChinaZ.com)5月29日 消息:在首尔举行的微 AI 安全峰会上,微软、软亚亚马逊和 IBM 等领先科技公司承诺在开发基础模型时公布他们所采取的马逊I模安全措施。这些公司都同意,承措施如果无法控制或减轻 AI 模型所带来的安全风险,将不会开发或部署该模型。微
图源备注:图片由AI生成,软亚图片授权服务商Midjourney
这一承诺适用于基础或 “前沿” 模型,马逊I模即可以应用于广泛应用领域的承措施 AI 模型,通常是安全能够处理图像、文本和其他输入的多模态系统。
签署这一承诺的公司包括 Meta、三星、Claude 开发商 Anthropic 以及埃隆・马斯克的初创企业 xAI 等。ChatGPT 制造商 OpenAI、总部位于迪拜的科技创新研究所以及韩国互联网供应商 Naver 也签署了前沿 AI 安全承诺。中国公司智谱AI 也是签署该承诺的公司之一,该承诺由英国和韩国政府共同制定。
每个同意承诺的公司都将公开概述他们的基础模型所带来的风险水平,并说明他们计划采取哪些措施以确保这些模型的安全性。签署者必须在2025年初法国举行的下一届 AI 安全峰会之前发布他们的研究结果。
英国首相里希・苏纳克表示:“这些承诺确保了世界领先的 AI 公司将就其开发安全 AI 的计划提供透明度和问责制。” 这些承诺旨在进一步完善去年首届 AI 安全峰会上签署的 Bletchley 协议,该协议对 AI 风险进行了分类和归类。
安永全球咨询数据与 AI 负责人 Beatriz Sanz Saiz 表示,科技公司的承诺是一个受欢迎的举措。她说:“在开发和实施值得信赖的 AI 时,提供透明度和问责制至关重要。虽然 AI 对于企业和个人都有巨大潜力,但只有通过有意识和道德的开发方法才能充分发挥这一潜力。”
Zoho 英国的董事总经理 Sachin Agrawal 表示:“使用 AI 的公司应优先考虑道德问题和负责任的数据实践,以建立客户信任。采用正确的 AI 程序可能意味着超越当前的隐私规定,考虑到在不损害客户数据的情况下最合乎道德的平衡 AI 利益,并确保任何实践都是完全透明的。”
(责任编辑:自媒体)
- ·研究称数字水印与人工智能相结合将加速版权侵权案件
- ·柯基跑丢后被人关鸡棚看了一年鸡 奇特经历引发热议
- ·专家建议取消中考给孩子减压:直接普及高中 中学念5年
- ·全球大火的Sora还没盈利,这些人已经实现日赚200万
- ·环卫工人用毛巾擦树枝引吐槽 官方回应:是在治理煤污病
- ·湖北引进“雪地熨斗”清理冻雨 新型除雪融冰车大显身手
- ·YOLOv8官网体验入口 AI计算机视觉目标检测模型免费在线使用地址
- ·员工因bug事故被要求归还年终奖 AI辅助代码助手软件有哪些?
- ·苹果宣布将在今年公布新的AI功能 去年已创建大模型Ajax
- ·华为畅享70z全新发布!搭载6000Ah大电池 1099元起明日预售