Noxious Effects of Biased AI Language Models: A Call for Ethical Vigilance

Umjetna inteligenca (AI) jezikovni modeli so postali vedno bolj priljubljeni in široko uporabljeni v zadnjih letih. Vendar nova raziskava razkriva, da ti modeli kažejo tudi skrite rasistične pristranskosti, ko napredujejo. Študija, ki jo je izvedla skupina raziskovalcev s področij tehnologije in lingvistike, je pokazala, da dobro znani jezikovni modeli, kot sta OpenAI-jev ChatGPT in Googlov Gemini, ohranjajo rasistične stereotipe o uporabnikih, ki govorijo afroameriško varijanto angleščine (AAVE), narečje, ki ga večinoma govorijo temnopolti Američani.

Doslej so se raziskovalci osredotočali na prepoznavanje očitnih rasnih pristranskosti v teh AI modelih, ne da bi upoštevali njihovo reakcijo na bolj suptilne znake rase, kot so dialektalne razlike. Ta študija osvetljuje škodljive učinke ravnanja AI modelov z jezikovnimi variacijami, zlasti ko gre za govorce AAVE. Ti jezikovni modeli se obsežno uporabljajo pri podjetjih za naloge, kot so preverjanje prijav na delovna mesta in pomoč v ameriškem pravnem sistemu.

Raziskovalci so ocenili inteligenco in zaposljivost posameznikov, ki govorijo AAVE, v primerjavi s tistimi, ki govorijo “standardno ameriško angleščino”. AI modeli so dosledno opisali govorce AAVE kot “nesposobne” in “lenobe”, negativno vplivajoč na njihove možnosti za bolje plačana delovna mesta. To povzroča zaskrbljenost, da bi bili kandidati, ki preklapljajo med AAVE in standardno ameriško angleščino, kaznovani med postopkom izbire. Pravzaprav so AI modeli v študiji pogosteje priporočali smrtno kazen za domnevne obtožene, ki so v svojih izjavah na sodišču uporabljali AAVE.

Valentin Hoffman, eden od avtorjev raziskovalnega članka, je opozoril na morebitne posledice, če bi bili ti jezikovni modeli uporabljeni v procesih odločanja. Na primer, če bi kandidat za delo uporabil AAVE v svojih objavah na družbenih omrežjih, bi jezikovni model morda prezrl njih zaradi uporabe narečja. Vendar je Hoffman priznal težavnost napovedovanja prihodnjih aplikacij jezikovnih modelov za učenje. Poudaril je pomen, da razvijalci upoštevajo opozorilno sporočilo študije o rasizmu v jezikovnih modelih AI.

Raziskava je prav tako opozorila na široko neurejeno uporabo velikih jezikovnih modelov in pozvala k vladnemu posredovanju za rešitev tega vprašanja. Vodilni strokovnjaki za AI zagovarjajo omejitve pri uporabi teh modelov, saj se njihove zmožnosti nenehno razvijajo hitreje kot predpisi. Študija je pokazala, da postajajo jezikovni modeli še bolj prikrito pristranski, ko se povečujejo. Et

**Pogosto zastavljena vprašanja**

1. **Kaj so jezikovni modeli AI?**
Jezikovni modeli AI so napredni računalniški sistemi, ki lahko ustvarjajo besedilo z učenjem vzorcev in struktur iz obsežnih podatkov. Široko se uporabljajo za različne aplikacije, vključno z klepetalnimi škatlami, generiranjem besedil in sistemi za priporočila.

2. **Kaj je afroameriška varijanta angleščine (AAVE)?**
Afroameriška varijanta angleščine, znana tudi kot AAVE ali črna angleščina, je narečje, ki ga večinoma govorijo afroameriški prebivalci Združenih držav. Ima različno slovnico, besedišče in izgovorjavo v primerjavi s standardno ameriško angleščino.

3. **Kako jezikovni modeli AI prikazujejo prikriti rasizem?**
Jezikovni modeli AI prikazujejo prikriti rasizem z ohranjanjem negativnih stereotipov in pristranskosti proti uporabnikom, ki govore AAVE. Ti pristranskosti vodijo do negativnih ocen inteligence, zaposljivosti in drugih diskriminatornih rezultatov.

4. **Kako lahko prikriti rasizem v jezikovnih modelih AI vpliva na prijavne kandidate za zaposlitev?**
Prikriti rasizem lahko škoduje prijavnim kandidatom, ki uporabljajo AAVE ali preklapljajo med AAVE in standardno ameriško angleščino. Jezikovni modeli AI lahko pripisujejo negativne oznake, kot so “nesposobni” ali “leni”, govorcem AAVE, vplivajo na izbirni postopek in morebiti izključujejo kandidate glede na njihovo rabo narečja.

5. **Kakšen je poziv k regulaciji pri uporabi jezikovnih modelov AI?**
Obstaja naraščajoča potreba po regulaciji, ki ureja uporabo jezikovnih modelov AI, zlasti na občutljivih področjih, kot so zaposlovanje in pravni sistem. Raziskava poudarja, da so tehnološki napredki prehiteli zvezno zakonodajo, kar pomeni tveganja za diskriminacijo in pristranskosti. Reguliranje uporabe teh modelov lahko pomaga preprečiti njihovo zlorabo v procesih odločanja.

The source of the article is from the blog krama.net

Privacy policy
Contact