AI Hiring Algorithms: Förbättra Inkludering och Rättvisa

Artificiell intelligens (AI) används alltmer i rekryteringsprocesser av företag världen över, inklusive Fortune 500-företag. Ungefär 70 procent av företagen och 99 procent av Fortune 500-företagen har integrerat dessa algoritmer i sina anställningspraxis. Men dessa algoritmer är inte ofelbara och tenderar ofta att förstärka befintliga biaser som finns i den verkliga anställningsdata de tränats på. Detta är särskilt skadligt för individer som möter systematisk diskriminering vid anställning, såsom personer med funktionsnedsättningar.

I ett försök att bekämpa anställningsdiskriminering antog New York City Automatiserad Anställningsbeslut Tool Act. Denna lag kräver att företag som använder AI för anställningsbeslut ska genomgå revisioner som bedömer biaser baserade på kön, ras-etnicitet och intersektionella kategorier. Dock kommer lagen till korta genom att inte inkludera funktionsnedsättning som en av bedömningskategorierna. Detta speglar en tveksamhet att konfrontera de algoritmiska biaser som finns i AI-rekryteringsverktyg, särskilt när det gäller funktionshindrade sökande.

Problemets kärna ligger inte bara i bristen på åtgärder för handhavande och standarder för kvalitetskontroll utan också i motståndet mot förändring som visas av algoritmerna som driver AI-rekryteringsverktygen. Dessa algoritmer identifierar mönster i träningsdata och använder dem för att vägleda beslutsfattandet, vilket leder till partiska utfall. Denna bias är särskilt tydlig för funktionshindrade sökande som historiskt sett har stått inför uteslutning från olika jobbmöjligheter. Att bara inkludera fler profiler av funktionsnedsättningar i träningsmodeller är inte lösningen, eftersom mångfalden av funktionsnedsättningar och algoritmernas envishet utgör betydande utmaningar.

Funktionshindrade sökande möter ofta nedvärdering från både mänskliga rekryterare och AI-rekryteringsverktyg på grund av att de avviker från strikta kvalifikationsstandarder. Dessa standarder, även om de används som prediktorer för framtida framgång, har ofta ingen betydelse för faktisk arbetsprestation. Till exempel kan en individ som tog en paus från arbetet på grund av en kronisk sjukdom möta svårigheter att säkra en intervju. Medan mänskliga rekryterare kan utöva finess och överväga de anpassningar som krävs enligt Americans with Disabilities Act, håller sig AI-rekryteringsverktyg till diskriminerande förväntningar.

AI-rekryteringsverktyg automatiserar inte bara överträdelser av Americans with Disabilities Act utan inför också nya former av granskning och diskriminering. Dessa verktyg försöker mäta sökandes personlighetsegenskaper och arbetsprestation baserat på faktorer som deras prestanda i datorspel eller inspelningar. Men dessa bedömningar misslyckas ofta med att beakta de unika utmaningar som funktionshindrade individer står inför. Till exempel kan videokanalystekniken ha svårt att registrera icke-vitas och personer med funktionsnedsättningar som påverkar deras utseende. Dessutom kan dessa verktyg misstolka mental kapacitet och känslor och därigenom ytterligare förstärka diskrimineringen.

Ansträngningarna att adressera dessa biaser i AI-rekryteringsverktyg genom revisioner är otillräckliga. Biaserna som är inneboende i dessa algoritmer kan inte utrotas enbart genom revisioner. För att säkerställa rättvisa och förhindra anställningsdiskriminering måste företag anta ett mer omfattande tillvägagångssätt som går utöver algoritmiska revisioner. Ett förbud mot användning av AI-rekryteringsverktyg för personalfattiga beslut kan vara nödvändigt för att störa vidmakthållandet av biaser.

New Yorks lagstiftare bör prioritera elimineringen av AI-rekryteringsverktyg istället för att anta lagar som ger halvhjärtade lösningar. Genom att gå vid sidan om kravet på ett förbud förlänger de och förvärrar användningen av AI-driven anställningsdiskriminering, särskilt för funktionshindrade arbetssökande. Det är dags för lagstiftare att hålla företag ansvariga och prioritera rättvis och opartisk behandling av alla sökande.

Vanliga Frågor (FAQs)

The source of the article is from the blog zaman.co.at

Privacy policy
Contact