AI Language Models: Uncovering Biases and the Call for Regulation

Mākslīgā intelekta (AI) valodas modeļi ir kļuvuši arvien populārāki un plaši izmantoti pēdējos gados. Tomēr jaunā ziņojumā ir atklāts, ka šie modeļi arī izpauž slēptas rasistiskas slāpes, kad tie attīstās. Pētījums, ko veica tehnoloģiju un lingvistikas nozarē strādājošu zinātnieku komanda, rādīja, ka labi zināmi valodas modeļi, piemēram, OpenAI’s ChatGPT un Google’s Gemini, uztur rasistiskus stereotipus par lietotājiem, kuri runā Afrikas amerikāņu vernakulārā angļu valodā (AAVE), dialektu, ko galvenokārt runā melnie amerikāņi.

Pagātnē pētnieki koncentrējās uz pārredzamu rasu slāpēm šajos AI modeļos, neņemot vērā to reakcijas uz subtilākām rases pazīmēm, piemēram, dialektu atšķirībām. Šis pētījums atklāj kaitējumus, ko AI modeļu apstrāde valodas dažādībai var radīt, it īpaši attiecībā uz AAVE runātājiem. Šos valodas modeļus plaši izmanto uzņēmumi, piemēram, lai atlasītu darba meklētājus un palīdzētu ASV tiesu sistēmā.

Pētnieki novērtēja indivīdu inteliģenci un nodarbināmību, kuri runā AAVE salīdzinājumā ar tiem, kuri lieto “standarta amerikāņu angļu valodu”. AI modeļi konsistenti raksturoja AAVE runātājus kā “stupidus” un “slappus”, negatīvi ietekmējot viņu iespējas iegūt augstāk apmaksātus darbus. Tas rada bažas, ka kandidāti, kas pārslēdzas starp AAVE un standarta amerikāņu angļu valodu, var tikt sodīti atlases procesā. Pētījumā pat tika atklāts, ka AI modeļi biežāk ieteica nāvessodu hipotētiskiem kriminālatbildībai pakļautiem apsūdzētajiem, kuri izmanto AAVE savām tiesas zāles izteikumiem.

Valentīns Hofmans, viens no pētījuma autoriem, brīdināja par iespējamajām sekām, ja šie valodas modeļi tiktu izmantoti lēmumu pieņemšanas procesos. Piemēram, ja darba kandidāts bija izmantojis AAVE savos sociālajos plašsaziņas līdzekļos, valodas modelis varētu viņus ignorēt uz dialekta izmantošanas pamata. Tomēr Hofmans atzina grūtības paredzēt valodas mācīšanas modeļu nākotnes pielietojumu. Viņš uzsvera attīstītāju nepieciešamību ņemt vērā pētījuma brīdinājuma par rasismu valodas modeļos.

Ziņojums arī uzsvēra lielā mērā nesankcionēto lielo valodas modeļu izmantošanu un aicināja valdību iejaukties, lai risinātu šo problēmu. Vadošie AI eksperti aicina ierobežojumus attiecībā uz šo modeļu izmantošanu, jo to iespējas turpina attīstīties ātrāk nekā regulējums. Pētījums parādīja, ka valodas modeļi, pieaugot lielumā, kļūst arvien slēptāki savos rasistiskajos priekšnoteikumos. Organizācijas kā OpenAI ieviestie etikas pamatnostādņi, kuriem jāpretojas šiem priekšnoteikumiem, vien māca modeļiem būt diskretākiem, nemaz nesamazinot pamatproblēmu. Rezultātā modeļi kļūst labāki slēpt rasistiskās slāpes, nevis tās atsaukt.

Autori izteica bažas par AI valodas modeļu nākotnes ietekmi, it īpaši tādās jomās kā to izmantošana. augošajā generatīvās AI tirgū, ko paredz sasniegt USD 1,3 triljonus līdz 2032. gadam, kas norāda uz privātā sektora palielinātu atkarību no šīm tehnoloģijām. Tomēr regulatīvie centieni nav soli vienā solī ar šiem uzlabojumiem, un vienlīdz AI ētikas pētnieki un eksperti, piemēram, Avijits Ghoshs, uzsver nepieciešamību ierobežot šo tehnoloģiju izmantošanu jutīgās jomās, turpinot attīstīt AI pētniecību.

Bieži uzdotie jautājumi

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact