会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 测试显示OpenAI GPT在简历排序中存在种族偏见!

测试显示OpenAI GPT在简历排序中存在种族偏见

时间:2024-07-04 05:13:25 来源:带水拖泥网 作者:自媒体 阅读:140次

测试显示OpenAI GPT在简历排序中存在种族偏见

**划重点:

**

1. 🕵️‍♂️ **实验发现:** OpenAI GPT3.5在使用虚构姓名进行简历排序时显示出对特定人种的测试存种偏见,可能影响招聘决策。显示序中

2. 🌐 **技术应用:** 企业纷纷采用生成式AI工具进行简历筛选,历排但《彭博》分析发现最知名的族偏生成式AI工具存在系统性的人种偏见。

3. 🤖 **OpenAI回应:** OpenAI回应称,测试存种企业使用其技术时通常采取措施减轻偏见,显示序中例如微调软件的历排响应,管理系统消息等。族偏

CSS站长资源(ChinaZ.com)3月8日 消息:《彭博》的测试存种实验表明,OpenAI GPT3.5在使用虚构姓名进行简历排序时存在明显的显示序中种族偏见。该实验通过从选民和人口普查数据中提取与特定种族或族裔关联至少90%的历排姓名,随机分配给同等资格的族偏简历。

在对这些简历进行1,测试存种000次排序时,显示序中GPT3.5倾向于更频繁地偏向某些族裔的历排姓名,违反了评估对受保护群体的工作歧视的基准。实验涉及的四个职位(人力资源业务合作伙伴、高级软件工程师、零售经理和金融分析师)中,与黑人美国人相关的姓名在金融分析师和软件工程师角色中最不可能被GPT评为最优秀候选人。

实验还显示,GPT在不同职位下的性别和种族偏好存在差异。尽管GPT并不一致地偏向某一特定群体,但在不同情境下会选择赢家和输家。此外,使用较少使用的GPT-4进行测试时,同样发现了明显的偏见。

对于《彭博》的详细问题,OpenAI回应称,使用GPT模型“开箱即用”的结果可能不反映其客户使用模型的方式。企业在使用其技术时通常会采取进一步减轻偏见的措施,包括微调软件的响应、管理系统消息等。

尽管生成式AI技术在人力资源领域的应用引起了广泛关注,但这项实验强调了在使用这些技术进行招聘和聘用时可能出现的严重自动歧视风险。对AI模型的偏见进行调整仍然是AI公司和研究人员面临的主要挑战,而自动招聘系统可能进一步加剧企业多样性努力的难度。

(责任编辑:知识)

相关内容
  • 专访椰树 | 一年播放10亿,我是如何打造爆款直播间
  • 大杯回归!OPPO Find X8系列三剑客曝光
  • 全球!比亚迪插电混动车用上12V磷酸铁锂电池:车电同寿
  • 霸榜三平台,猫meme“踩中”三大爆款要素
  • Coze扣子怎么使用 字节AI应用开发平台官网地址入口
  • 司乘因携带宠物产生纠纷 滴滴出行回应了:打人女子被拒绝服务22天
  • 用 GPT-4o 将PRD 即时转换成 Figma 设计
  • 周鸿祎说巴黎奥运会徽撞脸陈鲁豫引围观:网友直呼越看越上头
推荐内容
  • OLMo官网体验入口 开源AI语言模型框架免费下载地址
  • 拖欠729位员工薪资!林盛称钟薛高不好是自己责任:直播卖红薯、自家冰淇淋
  • 现在可以用GPT-4O 自动生成 Figma 设计稿了
  • 日本爆发食人菌感染:有患者昏迷三周手术8次、截肢保命
  • AI拜年模拟器“决战拜年之巅”网络走红 快来看看你是不是“大孝子”
  • OpenAI 研究员因安全问题辞职后加入 Anthropic