Artificial Intelligence (AI) og dets Indvirkning på Sorte Samfund

Kunstig intelligens (AI) algoritmer er blevet en betydelig kraft i teknologibranchen og påvirker forskellige aspekter af vores liv. Markedet for AI-teknologier vokser hastigt og forventes at nå en værdi på 190,61 mia. USD ved udgangen af 2025, ifølge en rapport fra MarketsandMarkets. Denne vækst understøttes af den stigende vedtagelse af AI inden for sektorer som sundhedsvæsen, finans, bilindustri og detailhandel.

Ikke desto mindre er der voksende bekymringer om AI-algoritmernes indvirkning på marginaliserede samfund, især sorte mennesker. Hændelserne med Google’s Gemini AI har fremhævet den vedvarende victimisering af sorte individer af disse teknologier. De fejlbehæftede resultater fra Gemini AI-produktet, som konverterer tekst til billeder, modtog alvorlig kritik og førte til, at Google trak produktet offline. Denne episode rejser bredere spørgsmål om den systemiske bias, der findes inden for AI-algoritmer.

Algoritmiske biaser har længe været et bekymringsemne i tech-branchen. Safiya Nobles forskning i 2018 afslørede den alarmerende mængde pornografisk og nedværdigende indhold, der dukkede op ved søgninger på “sorte piger” på Google. Derudover har AI-sundhedsalgoritmer udvist bias ved at anbefale færre medicinske behandlinger til sorte patienter sammenlignet med andre, som dokumenteret i forskellige studier.

Et specifikt eksempel på bias opstår med visuelle AI-platforme som Gemini. Algoritmen lyser konsekvent teinten for mørkhudede individer op, når den bliver bedt om at visualisere dem fra forskellige vinkler. Denne form for udelukkelse og vildledning resulterer i endelige billeder med overvejende hvide træk. Tech-virksomheder, der er ansvarlige for disse algoritmer, undlader ofte at anerkende eller rette disse biaser tilstrækkeligt.

Konsekvenserne af algoritmiske biaser strækker sig ud over blot følelser. ProPublicas undersøgelse i 2017 afslørede, at Facebooks hate-speech-detekteringsalgoritmer i uforholdsmæssig grad markerede indlæg fra sorte børn, mens de tillod hadefuldt indhold fra hvide mænd. Derudover rapporterede The Markup i 2021, at Googles politikker for annonceblokering på YouTube forhindrede annoncører i at rette henvendelse til seere, der var interesserede i “Black Lives Matter” eller “Black Excellence”. Disse eksempler fremhæver den potentielle skade forårsaget af biasede algoritmer og behovet for større ansvarlighed.

I sin bog “More Than A Glitch: Confronting Race, Gender, and Ability Bias in Tech” kaster Professor Meredith Broussard lys over, hvordan tech-industrien systematisk misrepræsenterer, stereotypiserer og udelukker marginaliserede samfund, især sorte individer. Dette understreger vigtigheden af at anerkende disse biaser og kræve ansvar fra tech-virksomheder.

Det er afgørende for valgte embedsmænd at handle for at beskytte marginaliserede samfund mod skadelige AI-algoritmer. Præcis som de kan indsætte Nationalgarden for at tackle stigninger i kriminalitet, kan de kræve, at tech-virksomheder retter eller deaktiverer algoritmer, der perpetuerer skade. Juridiske indgreb eksisterer for at sikre øjeblikkelig handling og forhindre den uretfærdige udelukkelse af enkeltpersoner eller samfund.

Tiden er kommet til en proaktiv tilgang til at tackle algoritmiske biaser, der rammer sorte mennesker. Det bør være ulovligt at sælge algoritmer, der ignorerer, nedvurderer eller bringer individer i fare baseret på deres hudfarve. Ved at holde tech-virksomheder ansvarlige kan vi stræbe efter en mere retfærdig og inkluderende fremtid.

FAQ:

Q: Hvad er Gemini AI?
A: Gemini AI er et tekst-til-billede-produkt udviklet af Google.

Q: Hvordan påvirker AI-algoritmer sorte samfund?
A: AI-algoritmer er blevet fundet at fastholde stereotyper, misrepræsentere sorte individer og anbefale biasede sundhedsbehandlinger.

Q: Hvilke handlinger har tech-virksomheder truffet for at tackle algoritmisk bias?
A: Tech-virksomheder udsender ofte undskyldninger eller trækker midlertidigt produkter offline, men undlader at tage meningsfulde skridt til at rette biaserne.

Q: Hvordan kan valgte embedsmænd tackle algoritmiske biaser?
A: Valgte embedsmænd har magten til at kræve ansvar fra tech-virksomheder og implementere juridiske indgreb for at beskytte marginaliserede samfund.

Kilder:
– Noble, S. (2018). “Algorithms of Oppression: How Search Engines Reinforce Racism.” (https://www.example.com)
– ProPublica (2017). “Facebook’s Secret Censorship Rules Protect White Men from Hate Speech But Not Black Children.” (https://www.example.com)
– The Markup (2021). “Google ‘Block List’ That Excluded Black YouTubers Took Effect.” (https://www.example.com)

The source of the article is from the blog macnifico.pt

Privacy policy
Contact