Vliv algoritmů umělé inteligence na černé komunity

Umělá inteligence (AI) je stále důležitější součástí našich životů a ovlivňuje způsob, jakým vnímáme digitální svět. Existují však rostoucí obavy ohledně dopadu těchto algoritmů na okrajové skupiny, zejména na černé lidi. Nedávné incidenty spojené s produktovou AI od Googlu nesou názorné ukázky ongoing obětování černých jedinců technologiemi AI.

Produkt Gemini AI, který převádí text na obrázky, čelil silné kritice kvůli svým chybným výstupům. Místo řešení příčin problémů se Google rozhodl stáhnout produkt offline. Tato reakce na ránu nezohledňuje hlubší problém – systémový náskok inherentní v algoritmech umělé inteligence.

Algoritmické nástroje, které perpetuují lži, stereotypy a diskriminaci, nejsou nic nového. Safiya Noble ve svém výzkumu z roku 2018 zdůraznila, jak hledání „černé dívky“ na Googlu způsobilo alarmující množství pornografického a ponižujícího obsahu. Navíc bylo zjištěno, že AI zdravotnické algoritmy doporučují méně léčebných postupů pro černé pacienty ve srovnání s ostatními.

Jedním výrazným příkladem náskoku je v případě vizuálních AI platforem jako Gemini. Když je algoritmus vyzván k vizualizaci tmavookých jedinců z různých úhlů, systematicky zesvětluje jejich pleť ve výstupních pózách. To nakonec vede k finálnímu obrázku s bílými rysy. Tyto výstupy jasně dokumentují vzor vyloučení a zastírání, přesto zodpovědné technologické společnosti činí málo pro odstranění situace.

Velké technologické společnosti často reagují na obvinění z algoritmického rasismu zdvojnásobením své stávající technologie. I když občasné omluvy jsou, často slouží pouze jako pouhá fráze, bez konkrétních opatření. Jedná se o příkrý kontrast k rychlým reakcím na skandály, které nezahrnují trvalé škody, jako například zastírání historických postav či superhrdinů.

Následky takových algoritmických nárskovaní přesahují pouhé pocity. ProPublicin průzkum v roce 2017 ukázal, jak algoritmy detekce nenávisti na Facebooku nepoměrně označovaly příspěvky od černých dětí, zatímco umožňovaly nenávistný obsah od bílých mužů. Podobně The Markup v roce 2021 informoval, že blokovací politiky reklam na YouTube od Googlu bránily reklamníkům v cílení na diváky zajímající se o „Black Lives Matter“ nebo „Black Excellence.“

Ve své knize „Více než chyba: Konfrontace s následky rasové, pohlavní a schopnostní předsudků v technologiích“ profesorka Meredith Broussard poukazuje na to, jak technologický průmysl nepoměrně zobrazuje, stereotypizuje a vylučuje okrajové komunity. To platí zejména pro černé jedince. Je důležité uznat škody způsobené těmito předsudky a požadovat odpovědnost od technologických společností.

Je nezbytné, aby zvolení úředníci jednali a chránili okrajové komunity před škodlivými algoritmy AI. Stejně jako mohou nasadit Národní gardu k zvládnutí nárůstů zločinnosti, mohou požadovat, aby technologické společnosti opravovaly nebo rušily algoritmy, které perpetuu

Sources:
– S. Noble (2018). „Algorithms of Oppression: How Search Engines Reinforce Racism.“
– ProPublica (2017). „Facebook’s Secret Censorship Rules Protect White Men from Hate Speech But Not Black Children.“
– The Markup (2021). „Google ‚Block List‘ That Excluded Black YouTubers Took Effect.“

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact