L’impact des algorithmes d’embauche basés sur l’IA sur les candidats handicapés

Les algorithmes d’embauche basés sur l’intelligence artificielle ont gagné en popularité ces dernières années, avec environ 70 % des entreprises et 99 % des entreprises du Fortune 500 les intégrant dans leurs processus de recrutement. Cependant, il est important de reconnaître que ces algorithmes ne sont pas parfaits et qu’ils tendent souvent à perpétuer les biais présents dans les données réelles d’embauche sur lesquelles ils ont été formés. Cette situation a des conséquences particulièrement graves pour les individus confrontés à une discrimination systémique dans l’embauche, notamment les personnes en situation de handicap.

La ville de New York a pris des mesures pour lutter contre la discrimination à l’emploi en adoptant l’Automated Employment Decision Tool Act, obligeant les entreprises utilisant l’IA pour les décisions en matière d’emploi à subir des audits. Ces audits évaluent les biais liés au sexe, à la race-ethnicité, et à d’autres catégories intersectionnelles. Cependant, la loi présente une lacune en omettant d’inclure le handicap parmi les catégories évaluées. Cette omission témoigne d’une réticence à affronter les biais algorithmiques présents dans les outils d’embauche basés sur l’IA, notamment en ce qui concerne les candidats handicapés.

Le problème réside non seulement dans l’absence de mesures d’application et de normes de contrôle de qualité, mais aussi dans la résistance au changement manifestée par les algorithmes qui alimentent les outils d’embauche basés sur l’IA. Ces algorithmes identifient des schémas dans les données d’entraînement et les utilisent pour orienter la prise de décision, entraînant ainsi des résultats biaisés. Ce biais est particulièrement prononcé pour les candidats handicapés qui ont historiquement été exclus de diverses opportunités professionnelles. Il ne suffit pas d’inclure simplement plus de profils de personnes handicapées dans les modèles d’entraînement, car la diversité des handicaps et la rigidité des algorithmes posent des défis importants.

Les candidats handicapés sont souvent dévalués à la fois par les recruteurs humains et les outils d’embauche basés sur l’IA en raison de leur écart par rapport aux normes de qualification rigides. Ces normes, bien qu’utilisées comme prédicteurs de la réussite future, n’ont souvent aucun impact sur la performance réelle au travail. Par exemple, un individu ayant fait une pause professionnelle en raison d’une maladie chronique peut rencontrer des difficultés pour décrocher un entretien. Alors que les recruteurs humains peuvent faire preuve de nuances et tenir compte des aménagements requis par la loi sur les personnes handicapées, les outils d’embauche basés sur l’IA se conforment aux attentes discriminatoires.

Les outils d’embauche basés sur l’IA automatisent non seulement les violations de la loi sur les personnes handicapées, mais introduisent également de nouvelles formes de surveillance et de discrimination. Ces outils tentent de mesurer les traits de personnalité et la performance professionnelle des candidats en se basant sur des facteurs tels que leurs performances dans les jeux vidéo ou les enregistrements. Cependant, ces évaluations omettent souvent de prendre en compte les défis uniques auxquels sont confrontées les personnes handicapées. Par exemple, la technologie d’analyse vidéo peut avoir du mal à reconnaître les visages des personnes de couleur et celles ayant des handicaps affectant leur apparence. De plus, ces outils peuvent mal interpréter les capacités mentales et les émotions, perpétuant ainsi la discrimination.

Les efforts visant à corriger ces biais dans les outils d’embauche basés sur l’IA via des audits sont insuffisants. Les biais inhérents à ces algorithmes ne peuvent être éradiqués par les audits seuls. Pour garantir l’équité et prévenir la discrimination à l’emploi, les entreprises doivent adopter une approche plus globale allant au-delà des audits algorithmiques. Une interdiction de l’utilisation des outils d’embauche basés sur l’IA pour les décisions en matière de personnel peut être nécessaire pour perturber la perpétuation des biais.

Les législateurs de New York devraient donner la priorité à l’élimination des outils d’embauche basés sur l’IA plutôt que d’adopter des lois qui proposent des solutions incomplètes. En éludant l’appel à une interdiction, ils prolongent et exacerbent la discrimination à l’emploi générée par l’IA, en particulier pour les demandeurs d’emploi handicapés. Il est temps que les législateurs tiennent les entreprises responsables et donnent la priorité à un traitement équitable et non biaisé de tous les candidats.

Questions Fréquemment Posées (FAQ)

The source of the article is from the blog agogs.sk

Privacy policy
Contact