人工智能在招聘中可能加深种族偏见,但合理运用可提升包容性

招聘通常被认为是算法偏见的一个主要例子。这就是在设计用于执行特定任务的AI系统中,倾向于偏袒某些群体而不是其他群体的地方。...

AI can reinforce racial bias—but used correctly, it could make hiring practices more inclusive

招聘通常被认为是算法偏见的一个主要例子。这就是在设计用于执行特定任务的AI系统中,倾向于偏袒某些群体而不是其他群体的地方。

这方面的故事数不胜数。也许最著名的例子是亚马逊(Amazon)试图在招聘中使用人工智能。在这种情况下,简历被用作训练或改进人工智能的数据。

由于大多数简历来自男性,人工智能学会了过滤掉任何与女性有关的内容,比如女子国际象棋俱乐部的主席或女子学院的毕业生。不用说,亚马逊最终并没有更广泛地使用该系统。

同样,拍摄视频面试,然后使用人工智能来分析候选人的适用性,这种做法经常受到批评,因为它可能会产生有偏见的结果。然而,人工智能在招聘方面的支持者认为,通过减少人类的偏见,人工智能使招聘过程更公平、更透明。这就提出了一个问题:人工智能在招聘中不可避免地会再现偏见,还是会让招聘变得更公平?

从技术角度来看,算法偏差是指导致不同群体结果不平等的错误。然而,与其将算法偏差视为一种错误,还不如将其视为社会的一种功能。人工智能通常基于从现实世界中提取的数据,这些数据集反映了社会。

例如,如果有色人种女性在数据集中的代表性不足,那么面部识别软件在识别肤色较深的女性时失败率更高。同样,对于视频面试,人们担心声音的语调、口音或特定性别和种族的语言模式可能会影响评估。

多个偏见

本文来自作者[圭礼骞]投稿,不代表1U号立场,如若转载,请注明出处:https://wap.1ugp.com/zlan/202508-4126.html

(4)

文章推荐

发表回复

本站作者后才能评论

评论列表(4条)

  • 圭礼骞
    圭礼骞 2025年08月12日

    我是1U号的签约作者“圭礼骞”!

  • 圭礼骞
    圭礼骞 2025年08月12日

    希望本篇文章《人工智能在招聘中可能加深种族偏见,但合理运用可提升包容性》能对你有所帮助!

  • 圭礼骞
    圭礼骞 2025年08月12日

    本站[1U号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育

  • 圭礼骞
    圭礼骞 2025年08月12日

    本文概览:招聘通常被认为是算法偏见的一个主要例子。这就是在设计用于执行特定任务的AI系统中,倾向于偏袒某些群体而不是其他群体的地方。...

    联系我们

    邮件:1U号@sina.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们