Artificiell Intelligens och dess Påverkan på Svarta Communities

Artificiell Intelligens (AI) algoritmer har blivit en väsentlig del av våra liv, och formar hur vi upplever den digitala världen. Det finns dock en växande oro kring konsekvenserna av dessa algoritmer för marginaliserade samhällen, särskilt för svarta personer. Nyligen har händelser med Googles Gemini AI belyst den fortsatta utsattheten för svarta individer av AI-teknologier.

Produkten Gemini AI, som konverterar text till bilder, mötte stark kritik på grund av sina bristfälliga resultat. Istället för att åtgärda roten till problemen valde Google att ta bort produkten från marknaden. Denna reaktiva åtgärd misslyckas med att erkänna det djupare problemet i grunden – den systemiska snedvridningen som finns inbyggd i AI-algoritmer.

Algoritmverktyg som fortsätter att sprida lögn, stereotyper och diskriminering är inget nytt fenomen. Safiya Noble, i hennes forskning från 2018, belyser hur sökningar på ”svarta tjejer” på Google genererade en alarmerande mängd pornografiskt och nedsättande innehåll. Dessutom har AI-hälsoalgoritmer visat sig rekommendera färre medicinska behandlingar för svarta patienter jämfört med andra.

Ett slående exempel på snedvridning finns inom visuella AI-plattformar som Gemini. När förfrågad att visualisera mörkhyade individer från olika vinklar ljusnar algoritmen konsekvent deras hudton i efterföljande poser. Detta leder i slutändan till en bild med vita drag. Dessa resultat visar tydligt ett mönster av uteslutning och feltolkning, ändå gör de teknikföretag som är ansvariga lite för att rätta till situationen.

De stora teknikföretagen svarar ofta på anklagelser om algoritmisk rasism genom att bara stå fast vid sin existerande teknologi. Även om tillfälliga ursäkter ibland görs, fungerar de ofta enbart som munhuggningar och saknar konkreta åtgärder. Det är en klar kontrast till de snabba reaktionerna på skandaler som inte involverar långvarig skada, såsom felaktig representation av historiska figurer eller superhjältar.

Konsekvenserna av sådana algoritmiska snedvridningar sträcker sig bortom enbart känslor. ProPublicas undersökning år 2017 avslöjade hur Facebooks algoritmer för detektion av hatinnehåll i övervägande grad flaggade inlägg från svarta barn medan hatiskt innehåll från vita män tilläts. På liknande sätt rapporterade The Markup år 2021 att Googles annonsspärrningspolicyer på YouTube förhindrade annonsörer från att rikta in sig på tittare intresserade av ”Black Lives Matter” eller ”Black Excellence.”

I sin bok ”More Than A Glitch: Confronting Race, Gender, and Ability Bias in Tech” betonar Professor Meredith Broussard hur tech-industrin i oproportionerlig grad felrepresenterar, stereotyperar och utesluter marginaliserade samhällen. Detta gäller särskilt för svarta individer. Det är avgörande att erkänna den skada som dessa snedvridningar orsakar och kräva ansvarighet från tech-företag.

Det är nödvändigt att valda företrädare vidtar åtgärder för att skydda marginaliserade samhällen från skadliga AI-algoritmer. På samma sätt som de kan sätta in Nationella Gardet för att hantera ökningar av brottslighet, kan de kräva att tech-företag rättar till eller avvecklar algoritmer som förorsakar skada. Lagstiftning finns för att säkerställa snabba åtgärder och förhindra orättvis uteslutning av individer eller samhällen.

Tiden är nu inne för ett proaktivt tillvägagångssätt för att tackla algoritmiska snedvridningar som riktar sig mot svarta personer. Det bör vara olagligt att sälja algoritmer som ignorerar, förminskar eller utsätter individer för fara baserat på deras hudfärg. Genom att hålla tech-företag ansvariga kan vi sträva mot en mer rättvis och inkluderande framtid.

FAQ

Q: Vad är Gemini AI?
A: Gemini AI är en text-till-bild produkt utvecklad av Google.

Q: Hur påverkar AI-algoritmer svarta samhällen?
A: AI-algoritmer har visat sig förstärka stereotyper, felrepresentera svarta individer och rekommendera snedvridna hälsovårdsbehandlingar.

Q: Vilka åtgärder har tech-företag vidtagit för att adressera algoritmisk snedvridning?
A: Tech-företag utfärdar ofta ursäkter eller drar tillfälligt tillbaka produkter, men misslyckas med att vidta meningsfulla åtgärder för att rätta till snedvridningarna.

Q: Hur kan valda företrädare adressera algoritmisk snedvridning?
A: Valda företrädare har makten att kräva ansvarighet från tech-företag och genomföra lagstiftande åtgärder för att skydda marginaliserade samhällen.

Källor:
– Noble, S. (2018). ”Algorithms of Oppression: How Search Engines Reinforce Racism.”
– ProPublica (2017). ”Facebook’s Secret Censorship Rules Protect White Men from Hate Speech But Not Black Children.”
– The Markup (2021). ”Google ’Block List’ That Excluded Black YouTubers Took Effect.”

The source of the article is from the blog toumai.es

Privacy policy
Contact