探讨AI招聘算法的公平性与启示

最近几年,AI招聘算法在公司中越来越受欢迎,大约有70%的公司和99%的财富500强公司将它们融入到他们的招聘流程中。然而,这些算法远非完美,往往会延续真实招聘数据中存在的偏见。这对那些在招聘中面临系统性歧视的个人,尤其是那些残疾人士,产生了特别负面的后果。

纽约市采取措施解决就业歧视问题,通过通过《自动化就业决策工具法案》,该法案要求使用AI进行就业决策的公司接受审计。这些审计根据性别、种族-族裔和交叉类别评估偏见。然而,该法案未能包括残疾为评估类别之一。这种省略反映出对抗AI招聘工具中存在的算法偏见的不情愿,尤其是针对残疾申请人。

问题不仅在于缺乏执法措施和质量控制标准,还在于AI招聘工具提供动力的算法所展现的变革抵抗力。这些算法识别训练数据中的模式并将它们用于指导决策制定,导致出现偏见的结果。这种偏见特别明显的针对历史上在各种工作机会上受到排斥的残疾申请人。仅仅在训练模型中包括更多的残疾人资料并不能是解决方案,因为残疾的多样性和算法的固执性提出了重大挑战。

由于残疾申请人与刚性资格标准的偏离,他们往往面临人类招聘人员以及AI招聘工具的贬值。这些标准,尽管作为未来成功的预测因素,但往往与实际工作表现无关。例如,由于患慢性疾病而休假的个体可能在获得面试时遇到困难。而人类招聘人员可能行使细微之处,并考虑到《残疾人法案》所要求的适应。AI招聘工具遵守歧视性期望。

AI招聘工具不仅自动违反《残疾人法案》,还引入了新形式的审查和歧视。这些工具试图根据申请者在视频游戏或录音中的表现等因素来衡量其性格特质和工作表现。然而,这些评估往往未能考虑到残疾人士所面临的独特挑战。例如,视频分析技术可能难以识别非白种人或那些外表受影响的残疾人的面孔。此外,这些工具可能错误解读智力和情绪,进一步加剧歧视。

通过审计来解决AI招聘工具中的这些偏见是不够的。这些算法固有的偏见不能仅通过审计来根除。为了确保公平性并防止就业歧视,公司必须采取更全面的方法,超越算法审计。对于人事决策使用AI招聘工具的禁令可能是必要的,以打破偏见的延续。

纽约州立法者应该优先考虑消除AI招聘工具,而不是通过提供一些苍白的解决方案的法律。通过绕过禁令的号召,他们在延长和加剧以AI为驱动的就业歧视,特别是对残疾求职者。是时候让立法者追究公司的责任,并优先考虑对所有申请者公平和无偏见的对待。

常见问题解答(FAQ)

The source of the article is from the blog exofeed.nl

Privacy policy
Contact