AI keelemodelid avavad varjatud rassismi: regulatsioon vajalik

Kunstliku intelligentsi (AI) keelemodelid, mis on viimastel aastatel üha populaarsemaks ja laialdasemalt kasutusel saanud, paljastavad edenedes üha enam varjatud rassistlikke eelarvamusi, selgub uuringust. Teadlaste meeskonna läbiviidud uuringu kohaselt kinnitavad hästi tuntud keelemodelid nagu OpenAI ChatGPT ja Google Gemini rassistlikke stereotüüpe inimeste suhtes, kes räägivad Aafrika Ameerika Vernakulaarset Inglise keelt (AAVE), keelt, mida peamiselt räägivad mustanahalised ameeriklased.

Minevikus on teadlased keskendunud nende AI mudelite agressiivse rassilise eelarvamuse tuvastamisele, jätmata tähelepanuta nende reaktsiooni rassilisele eristamisele, näiteks dialektierinevustele. See uuring toob esile kahjulikud tagajärjed, kui AI mudelid töötlevad keele variatsioone. Leitud tulemused on häirivad, kuna neid keele modeleid kasutatakse ulatuslikult ettevõtete poolt ülesannete nagu töötaotlejate sõelumine ja abi andmine USA õigussüsteemis jaoks.

Uurijad hindasid intelligentsust ja tööturule sisenemist AAVE-d kõnelevatel isikutel võrreldes “tavalise ameerika inglise” kõnelejatega. AI mudelid kirjeldasid järjepidevalt AAVE-d kõnelejaid “rumalateks” ja “laiskadeks”, mõjutades nende võimalust saada kõrgemat palka. See tekitab muret, et need kandidaadid, kes vahetavad AAVE ja tavaameerika inglise keele vahel, võivad olla valikuprotsessi ajal karistatud. Uuringus soovitasid AI mudelid isegi surmanuhtlust sagedamini hüpoteetilistele kuriteo kahtlusalustele, kes kasutasid AAVE keelt kohtusaalis.

Uuringutöö üks autoritest Valentin Hoffman hoiatas võimalike tagajärgede eest, kui neid keelemodeleid kasutatakse otsustusprotsessides. Näiteks, kui töökandidaat kasutas oma sotsiaalmeedia postitustes AAVE keelt, võiks keelemodel neid keelekasutuse tõttu eirata. Siiski tunnustas Hoffman, et on raske ennustada keelemudelite tulevasi rakendusi. Ta rõhutas arendajatele uuringu hoiatavat sõnumit rassismi kohta AI keelemudelites.

Raport rõhutas ka suures osas reguleerimata ulatusliku keelemudelite kasutamist ja kutsus valitsussekkumist selle probleemiga tegelemiseks. Juhtivad AI eksperdid on propageerinud nende mudelite kasutamisele piirangute kehtestamist, kuna nende võimed arenevad kiiremini kui regulatsioonid. Uuring näitas, et keelemudelid muutuvad suurenedes üha varjatumaks oma rassilistes eelarvamustes. Organisatsioonide, nagu OpenAI, rakendatud eetilised juhised, mis on loodud nende eelarvamustele vastu seismiseks, õpetavad mudelitele vaid olema diskreetsed ilma eelarvamuste kõrvaldamata. Praktikas muutuvad mudelid paremaks oma eelarvamuste varjamises ilma nendest õppimata.

Autorid väljendasid muret AI keelemudelite tuleviku mõju üle, eriti nende kasutamise laienedes erinevatesse sektoritesse. Generatiivsele AI turule oodatakse $1,3tn suurust kasvu aastaks 2032, tähistades erasektori suurenevat sõltuvust nendest tehnoloogiatest. Siiski pole reguleerivad jõupingutused selle arenguga sammu pidanud, näiteks Võrdse Töövõimaluste Komisjon hakkas alles hiljuti tegelema AI-põhiste diskrimineerimisjuhtumitega. AI eetika uurijad ja eksperdid nagu Avijit Ghosh rõhutasid vajadust piirata nende tehnoloogiate kasutamist tundlikes valdkondades, samal ajal jätkates edasiminekut AI teadustöös.

Sagedased küsimused

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact