Wpływ algorytmów sztucznej inteligencji na społeczności czarne

Sztuczna inteligencja (AI) stała się istotnym elementem naszego życia, kształtując sposób, w jaki doświadczamy świata cyfrowego. Jednak narasta obawa dotycząca wpływu tych algorytmów na społeczności marginalizowane, w szczególności ludzi czarnoskórych. Ostatnie incydenty związane z Google Gemini AI rzucają światło na ciągłe naruszanie praw osób czarnych przez technologie AI.

Produkt Gemini AI, który przekształca tekst na obrazy, spotkał się z ostrą krytyką z powodu wadliwych wyników. Zamiast rozwiązywać podstawowe problemy, Google zdecydował się wycofać produkt z rynku. Taka impulsywna reakcja nie uwzględnia głębszego problemu, jaki tkwi w algorytmach AI.

Narzędzia algorytmiczne, które perpetuują kłamstwa, stereotypy i dyskryminację, nie są nowym zjawiskiem. Safiya Noble w swoich badaniach z 2018 roku zwróciła uwagę na to, jak wyszukiwania frazy „czarne dziewczyny” w Google generują niepokojącą ilość pornograficznych i obraźliwych treści. Ponadto algorytmy AI w opiece zdrowotnej znaleziono rekomendują mniej leczenia dla pacjentów czarnoskórych w porównaniu z innymi.

Jednym z wyraźnych przykładów uprzedzeń jest zjawisko na platformach wizualnej AI, takich jak Gemini. Gdy algorytm jest proszony o wizualizację ciemnoskórych osób z różnych kątów, konsekwentnie rozjaśnia ich karnację w kolejnych ujęciach. W rezultacie ostateczny obraz przedstawia białe cechy. Te wyniki wyraźnie pokazują wzorzec ekskluzywności i fałszerstwa, a mimo to odpowiedzialne firmy technologiczne niewiele robią, by naprawić sytuację.

Duże firmy technologiczne często reagują na zarzuty dotyczące rasizmu algorytmicznego poprzez podwajanie swoich istniejących technologii. Choć czasami złożą przeprosiny, są to często tylko puste słowa, pozbawione konkretnych działań. Stanowią one wyraźny kontrast wobec szybkich reakcji na skandale, które nie powodują trwałych szkód, takie jak niewłaściwe przedstawienie postaci historycznych czy superbohaterów.

Konsekwencje takich uprzedzeń algorytmicznych wykraczają poza same emocje. Dochodzenie ProPublica z 2017 roku ujawniło, jak algorytmy detekcji nienawiści Facebooka nierówno flagowały posty dzieci czarnych, pozwalając jednocześnie na nielubiane treści pochodzące od białych mężczyzn. Podobnie The Markup poinformował w 2021 roku, że polityka blokowania reklam Google na YouTube uniemożliwiała reklamodawcom dotarcie do widzów zainteresowanych „Black Lives Matter” czy „Czarnym Doskonałością”.

W swojej książce „More Than A Glitch: Confronting Race, Gender, and Ability Bias in Tech”, profesor Meredith Broussard podkreśla, jak przemysł technologiczny nadmiernie fałszuje, stereotypizuje i wyklucza społeczności marginalizowane, szczególnie osoby czarnoskóre. Ważne jest zatem uświadomienie szkód spowodowanych tymi uprzedzeniami i domaganie się odpowiedzialności od firm technologicznych.

Niezbędne jest, aby wybrani urzędnicy podjęli działania mające na celu ochronę społeczności marginalizowanych przed szkodliwymi algorytmami AI. Podobnie jak mogą wdrożyć Gwardię Narodową, aby zareagować na wzrost przestępczości, mogą także żądać od firm technologicznych naprawienia lub wyłączenia algorytmów, które generują szkodę. Istnieją interwencje prawne pozwalające na szybką akcję i zapobiegające niesprawiedliwemu wykluczaniu jakiejkolwiek jednostki czy społeczności.

Nadeszła pora na proaktywne podejście do rozwiązywania problemu uprzedzeń algorytmicznych skierowanych przeciwko osobom czarnym. Powinno być nielegalne sprzedawanie algorytmów, które ignorują, poniżają lub zagrażają jednostkom na podstawie koloru skóry. Poprzez żądanie odpowiedzialności od firm technologicznych możemy dążyć do bardziej sprawiedliwej i włączającej przyszłości.

FAQ:

P: Co to jest Gemini AI?
O: Gemini AI to produkt przekształcający tekst na obrazy opracowany przez Google.
P: Jak algorytmy AI wpływają na społeczności czarne?
O: Algorytmy AI są znalezione w perpetuowaniu stereotypów, błędnego przedstawiania osób czarnoskórych i rekomendowania uprzedzonych leczeń zdrowotnych.
P: Jakie działania podejmują firmy technologiczne w celu rozwiązania problemu uprzedzeń algorytmicznych?
O: Firmy technologiczne często wydają przeprosiny lub tymczasowo wycofują produkty z rynku, ale nie podejmują istotnych kroków w celu naprawy uprzedzeń.
P: Jak wybrani urzędnicy mogą rozwiązać problem uprzedzeń algorytmicznych?
O: Wybrani urzędnicy mają moc żądania odpowiedzialności od firm technologicznych i wdrażania interwencji prawnych celem ochrony społeczności marginalizowanych.

Źródła:
– Noble, S. (2018). „Algorithms of Oppression: How Search Engines Reinforce Racism.”
– ProPublica (2017). „Facebook’s Secret Censorship Rules Protect White Men from Hate Speech But Not Black Children.”
– The Markup (2021). „Google 'Block List’ That Excluded Black YouTubers Took Effect.”

Sztuczna inteligencja (AI) stała się znaczącą siłą w branży technologicznej, wpływając na różne aspekty naszego życia. Rynek technologii AI dynamicznie rośnie, z przewidywaną wartością 190,61 miliarda dolarów do 2025 roku – wynika z raportu MarketsandMarkets. Ten wzrost jest napędzany coraz większym przyjęciem AI w sektorach takich jak opieka zdrowotna, finanse, motoryzacja i handel.

Jednak narastają obawy dotyczące wpływu algorytmów AI na społeczności marginalizowane, zwłaszcza osoby czarnoskóre. Incydenty związane z Google Gemini AI podkreśliły ciągłe naruszanie praw osób czarnoskórych przez te technologie. Wadliwe wyniki produktu AI Gemini, który konwertuje tekst na obrazy, spotkały się z ostrą krytyką i ostatecznie skłoniły Google do jego wycofania. Ten incydent rzuca szersze światło na uprzedzenia systemowe obecne w algorytmach AI.

Uprzedzenia algorytmiczne od dawna są zmartwieniem branży technologicznej. Badania Safyi Noble z 2018 roku ujawniły niepokojącą ilość pornograficznych i obraźliwych treści po wpisaniu frazy „czarne dziewczyny” w Google. Dodatkowo algorytmy AI w opiece zdrowotnej wykazują uprzedzenia, rekomendując mniej leczenia dla pacjentów czarnoskórych w porównaniu z innymi, co udokumentowane jest w różnych badaniach.

Jeden konkretny przykład uprzedzeń ma miejsce na platformach wizualnej AI, jak Gemini. Algorytm konsekwentnie rozjaśnia karnację ciemnoskórych osób, gdy jest proszony o wizualizację ich z różnych kątów. Ten wzorzec ekskluzji i błędnego przedstawiania prowadzi do finalnych obrazów, które posiadają głównie białe cechy. Firmy technologiczne odpowiedzialne za te algorytmy często nie potrafią należycie uznawać lub naprawiać tych uprzedzeń.

Konsekwencje uprzedzeń algorytmicznych wykraczają poza same emocje. Dochodzenie ProPublica z 2017 roku ujawniło, że algorytmy detekcji nienawiści Facebooka nierówno flagowały posty dzieci czarnoskórych, pozwalając jednocześnie na nielubiane treści pochodzące od białych mężczyzn. Podobnie The Markup poinformował w 2021 roku, że polityka blokowania reklam Google na YouTube uniemożliwiała reklamodawcom dotarcie do widzów zainteresowanych „Black Lives Matter” czy „Czarnym Doskonałością.” Te przykłady podkreślają potencjalne szkody spowodowane uprzedzeniami algorytmicznymi i potrzebę większej odpowiedzialności.

W swojej książce „More Than A Glitch: Confronting Race, Gender, and Ability Bias in Tech”, profesor Meredith Broussard rzuca światło na to, jak przemysł technologiczny systematycznie fałszuje, stereotypizuje i wyklucza społeczności marginalizowane, zwłaszcza osoby czarnoskóre. To podkreśla ważność uznawania tych uprzedzeń i domagania się odpowiedzialności od firm technologicznych.

Jest kluczowe, aby wybrani urzędnicy podjęli działania mające na celu ochronę społeczności marginalizowanych przed szkodliwymi algorytmami AI. Podobnie jak mogą wdrożyć Gwardię Narodową, aby zareagować na wzrost przestępczości, mogą także żądać od firm technologicznych naprawienia lub wyłączenia algorytmów, które generują szkodę. Istnieją interwencje prawne pozwalające na szybką akcję i zapobieganie niesprawiedliwemu wykluczaniu jakiejkolwiek jednostki czy społeczności.

Nadeszła pora na proaktywne podejście do rozwiązywania problemu uprzedzeń algorytmicznych skierowanych przeciwko osobom czarnym. Powinno być nielegalne sprzedawanie algorytmów, które ignorują, poniżają lub zagrażają jednostkom na podstawie koloru skóry. Poprzez żądanie odpowiedzialności od firm technologicznych możemy dążyć do bardziej sprawiedliwej i włączającej przyszłości.

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact