Nya insikter om skapandet av AI-modeller

En färsk studie har avslöjat att när AI-verktyg utvecklas blir de mer rasistiskt snedvridna och sprider systematiska rasistiska fördomar. Studien, utförd av ett team av experter inom teknologi och språk, fokuserar på de rasistiska stereotyper som sprids av AI-modeller som ChatGPT och Gemini, särskilt gentemot talare av african american vernacular english (AAVE), en dialekt som vanligtvis används av svarta amerikaner.

AI-språkmodeller har olika tillämpningar i dagens värld, från att hjälpa till med skrivande till att påverka anställningsbeslut. Dock har dessa verktyg visat sig bidra till snedvridna bedömningar mot marginaliserade grupper som afroamerikaner. Studien belyser behovet av att adressera den diskriminering som AAVE-talare står inför, särskilt inom områden som jobbanställningar.

Valentin Hoffman, en forskare vid Allen Institute for Artificial Intelligence och medförfattare till studien, uttryckte oro över konsekvenserna för jobbkandidater som kommunicerar på AAVE. Hoffman understryker att personer som använder AAVE redan möter rasdiskriminering inom olika sammanhang. Forskarna syftade till att utvärdera hur AI-modeller uppfattar individer som talar AAVE under jobbanställningar.

För att bedöma intelligens och lämplighet för jobb för personer som talar AAVE jämfört med de som använder ”standard amerikansk engelska”, presenterade forskarna AI-modellerna med meningar på båda dialekterna. Resultaten visade på en tydlig snedvridning, där modellerna ofta klassificerade AAVE-talare som ”dumma” och ”lata”, och rekommenderade dem för lägre betalda positioner.

Studien väckte också oro över de potentiella konsekvenserna för jobbkandidater som växlar mellan AAVE och standard engelska i sin tal eller online-interaktioner. AI kan straffa dem baserat på deras dialektanvändning, även i virtuella interaktioner. Detta skapar ytterligare hinder för personer som redan står inför språklig diskriminering.

Dessutom upptäckte studien att AI-modeller var mer benägna att rekommendera hårdare straff, såsom dödsstraff, för hypotetiska brottslingar som använder AAVE i rättens uttalanden. Detta resultat väcker allvariga frågor om den potentiella inverkan av partiskhet i det straffrättsliga systemet från AI.

Även om författaren till studien är hoppfull om att dystopiska scenarier kommer att undvikas, betonar han behovet av utvecklare att adressera de rasistiska fördomar som är inbäddade i AI-modeller. Det är nödvändigt att aktivt arbeta för att förhindra diskriminerande utfall och främja rättvisa och inkludering.

I takt med att vi alltmer förlitar oss på AI-verktyg inom olika aspekter av våra liv är det avgörande att känna igen och rätta till de bias som är inneboende i dessa teknologier. Att sträva efter opartiska och inkluderande AI-modeller är avgörande för att säkerställa rättvist bemötande för individer oavsett ras, etnicitet eller dialekt.

**Vanliga frågor (FAQ):**

1. **Vad är AAVE?**
AAVE står för African American Vernacular English och syftar på en dialekt som är vanlig bland svarta amerikaner.

2. **Varför är det viktigt att adressera rasistisk partiskhet i AI?**
Att adressera rasistisk partiskhet i AI är avgörande för att förhindra diskriminerande utfall och säkerställa rättvisa och inkludering för marginaliserade grupper.

3. **Vilka var resultaten av studien?**
Studien visade att AI-modeller tenderade att klassificera AAVE-talare som ”dumma” och ”lata”, och rekommenderade dem ofta för lägre betalda positioner. Dessutom visade modellerna en benägenhet att rekommendera hårdare straff för hypotetiska brottslingar som använde AAVE i rättsliga uttalanden.

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact