Utjecaj AI algoritama na crne zajednice

Umjetna inteligencija (AI) algoritmi postali su bitan faktor u tehnološkoj industriji te utječu na različite aspekte naših života. Tržište AI tehnologija brzo raste, a prema izvješću tvrtke MarketsandMarkets, predviđa se da će do 2025. doseći vrijednost od 190,61 milijardu dolara. Ovaj rast potaknut je sve većim usvajanjem AI tehnologija u sektorima poput zdravstva, financija, automobilske industrije i maloprodaje.

Međutim, postoji rastuća zabrinutost zbog utjecaja AI algoritama na marginalizirane zajednice, posebno na crne ljude. Incidenti u kojima je sudjelovao Gemini AI tvrtke Google istaknuli su stalno žrtvovanje crnih pojedinaca od strane ovih tehnologija. Manjkavi rezultati proizvoda Gemini AI, koji pretvara tekst u slike, izazvali su oštre reakcije te na koncu doveli do povlačenja proizvoda s tržišta od strane Googlea. Ovaj incident postavlja šire probleme vezane uz sistemsku pristranost koja postoji unutar AI algoritama.

Birokratska pristranost dugo je bila zabrinutost u tehnološkoj industriji. Istraživanje Safiye Noble iz 2018. godine otkrilo je alarmantnu količinu pornografskog i ponižavajućeg sadržaja koji se pojavljivao prilikom pretraživanja “crnih djevojaka” na Googleu. Dodatno, AI algoritmi u zdravstvu pokazali su pristranost preporučujući manje medicinskih tretmana za crne pacijente u usporedbi s drugima, kako je dokumentirano u različitim istraživanjima.

Jedan konkretan primjer pristranosti javlja se kod vizualnih AI platformi poput Gemini. Algoritam dosljedno posvjetljuje ten tamnoputih osoba kada se zamoli da ih vizualizira s različitih kutova. Ovaj obrazac isključenja i krivog predstavljanja rezultira krajnjim slikama koje imaju pretežito bijele karakteristike. Tehnološke tvrtke odgovorne za ove algoritme često ne uspijevaju primjereno priznati ili ispraviti ove pristranosti.

Posljedice algoritamskih pristranosti protežu se izvan osjećaja. Istraživanje ProPublice iz 2017. godine otkrilo je da su detekcijski algoritmi mržnje Facebooka nerazmjerno označavali objave od crne djece, dok su dopuštali mrzovoljni sadržaj od bijelih muškaraca. Slično tome, The Markup je izvijestio 2021. godine da su Googlova pravila blokiranja oglasa na YouTubeu spriječila oglašivače da ciljaju gledatelje zainteresirane za “Black Lives Matter” ili “Black Excellence”. Ovi primjeri ističu potencijalnu štetu koju mogu uzrokovati pristrani algoritmi i potrebu za većom odgovornošću.

U svojoj knizi “More Than A Glitch: Confronting Race, Gender, and Ability Bias in Tech,” profesorica Meredith Broussard osvjetljava kako tehnološka industrija sustavno krivo predstavlja, stereotipizira i isključuje marginalizirane zajednice, posebno crne osobe. To naglašava važnost prepoznavanja tih pristranosti i zahtijeva odgovornost od tehnoloških tvrtki.

Ključno je da izabrani dužnosnici poduzmu mjere u zaštiti marginaliziranih zajednica od štetnih AI algoritama. Baš kao što mogu aktivirati Nacionalnu gardu kako bi se uhvatili u koštac s porastima kriminala, mogu zahtijevati od tehnoloških tvrtki da isprave ili povuku algoritme koji uzrokuju štetu. Pravni intervencije postoje kako bi osigurale hitno djelovanje i spriječile nepravedno isključivanje bilo koje osobe ili zajednice.

Došlo je vrijeme za proaktivni pristup rješavanju algoritamskih pristranosti koje ciljaju crne ljude. Treba zabraniti prodaju algoritama koji ignoriraju, ponižavaju ili ugrožavaju osobe temeljem boje njihove kože. Držeći tehnološke tvrtke odgovornima, možemo težiti ka pravednijoj i inkluzivnijoj budućnosti.

FAQ:

P: Što je Gemini AI?
A: Gemini AI je proizvod koji tekst pretvara u slike, razvijen od strane Googlea.

P: Kako AI algoritmi utječu na crne zajednice?
A: Pronađeno je da AI algoritmi potiču stereotipe, krivo predstavljaju crne pojedince i preporučuju pristrane medicinske tretmane.

P: Koje su akcije koje su tehnološke tvrtke poduzele kako bi riješile algoritamsku pristranost?
A: Tehnološke tvrtke često izdaju isprike ili privremeno povlače proizvode s tržišta, ali ne poduzimaju korake kako bi učinkovito ispravile pristranosti.

P: Kako izabrani dužnosnici mogu riješiti algoritamske pristranosti?
A: Izabrani dužnosnici imaju moć zahtijevati odgovornost od tehnoloških tvrtki i implementirati pravne intervencije kako bi zaštitili marginalizirane zajednice.

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact