Algoritmikus Diszkrimináció a Technológiai Világban

Mesterséges Intelligencia (AI) algoritmusok jelentős erővé váltak a technológiai iparban, különböző életünk aspektusait érintve. Az AI technológiák piaca gyors ütemben növekszik, a MarketsandMarkets jelentése szerint 2025-re várhatóan eléri a 190,61 milliárd dollárt. Ennek a növekedésnek az oka az AI terjedése olyan szektorokban, mint az egészségügy, pénzügy, autóipar és kiskereskedelem.

Azonban aggodalomra ad okot az AI algoritmusok hatása a marginalizált közösségekre, különösen a fekete emberekre. Az esetek, melyek a Google Gemini AI-t érintették, rávilágítottak a fekete egyének által tapasztalt folyamatos áldozatállapotra ezeknek a technológiáknak. A Gemini AI termék hibás kimenetei, mely szöveget képeké alakítja át, súlyos visszhangot kaptak, végül pedig arra ösztönözték a Google-t, hogy a terméket offline állítsa. Ez az eset szélesebb körű kérdéseket vet fel az AI algoritmusokban rejlő rendszerszintű elfogultsággal kapcsolatban.

Az algoritmikus elfogultságok régóta aggodalomra adnak okot a tech iparágban. Safiya Noble 2018-as kutatása például rámutatott, hogy „fekete lányok” keresésekor a Google-n pornográf és sértő tartalmak jelentek meg. Ezenkívül különböző tanulmányok dokumentálták, hogy az AI egészségügyi algoritmusok kevesebb orvosi kezelés ajánlásával szembesítik a fekete betegeket másokhoz viszonyítva.

Egy konkrét elfogultsági példa, mely a Geminihez hasonló vizuális AI platformokon fordul elő, az, amikor a sötét bőrszínű egyéneket különböző szögekből megjelenítő algoritmus folyamatosan világossá teszi bőrszínüket. Ez az alkalmazott kizárás és rossz ábrázolás az összes kép végső formájában jellemzően fehér vonásokkal rendelkezik. A felelős tech vállalatok gyakran nem tesznek megfelelő lépéseket ezeknek az elfogultságoknak való megfelelő elismerésére vagy kijavítására.

Az algoritmikus elfogultságok következményei a pusztán érzelmeknél messzebbre mutatnak. A ProPublica 2017-es vizsgálata például arra mutatott rá, hogy a Facebook gyűlöletbeszéd észlelő algoritmusai aránytalanul jelentettek bejegyzéseket fekete gyermekektől, miközben engedékenyebbek voltak a fehér férfiak gyűlöletes tartalmával. Hasonlóan, a The Markup 2021-es jelentése szerint a Google YouTube-on azon hirdetők hirdetéseit tiltotta le, akik a „Black Lives Matter” vagy „Fekete Kiválóság” iránt érdeklődő nézőket célozták volna. Ezek a példák rávilágítanak a torzított algoritmusok által okozott potenciális kárra és a nagyobb felelősségre.

Meredith Broussard „Több, mint Egy Hiba: A Faj, Nemi és Képességbeli Elfogultságok Megszállásolása a Techben” című könyvében rámutat arra, hogy a tech iparág rendszeresen félrevezeti, sztereotipizálja és kizárja a marginalizált közösségeket, különösen a feketéket. Ez aláhúzza az ezekből az elfogultságokból fakadó károk elismerésének és a tech vállalatoktól elvárt felelősségnek az jelentőségét.

Alapvető fontosságú, hogy a megválasztott tisztségviselők cselekedjenek annak érdekében, hogy megvédjék a marginalizált közösségeket az ártalmas AI algoritmusoktól. Ahogyan képesek a Nemzeti Gárdát bevetni a bűnügyek számának csökkentése érdekében, ugyanúgy követelhetik a tech vállalatoktól, hogy helyesbítsék vagy hatástalanítsák a kárt okozó algoritmusokat. Jogi beavatkozások állnak rendelkezésre annak érdekében, hogy gyors cselekvést biztosítsanak és megakadályozzák bármely egyén vagy közösség tisztességtelen kizárását.

Eljött az idő egy proaktív megközelítésre az algoritmusokat ért elfogultságok kezelése érdekében, melyek a fekete emberekre irányulnak. Törvénytelennek kell lenniük azon algoritmusok eladása, melyek figyelmen kívül hagyják, lenézik vagy veszélyeztetik az embereket bőrszínük alapján. A tech vállalatok felelősségre vonásával arra törekedhetünk, hogy egy igazságosabb és befogadóbb jövő felé haladjunk.

GYIK:

  1. Mi az a Gemini AI?
  2. Gemini AI egy olyan szövegből képekké alakító termék, melyet a Google fejlesztett ki.

  3. Hogyan érintik az AI algoritmusok a fekete közösségeket?
  4. AI algoritmusoknak kimutatták, hogy erősítik a sztereotípiákat, rosszul ábrázolják a fekete egyéneket és elfogult egészségügyi kezeléseket ajánlanak.

  5. Milyen lépéseket tesznek a tech vállalatok az algoritmikus elfogultságok kezelése érdekében?
  6. A tech vállalatok gyakran bocsánatkéréseket tesznek vagy ideiglenesen lekapcsolnak termékeket, de nem tesznek lényeges lépéseket az elfogultságok kijavítására.

  7. Hogyan képesek a megválasztott tisztségviselők kezelni az algoritmikus elfogultságokat?
  8. Az megválasztott tisztségviselőknek az a hatalmuk, hogy számon kérjék a tech vállalatoktól a felelősségre vonást és jogi beavatkozásokat hajtsanak végre a marginalizált közösségek védelme érdekében.

Források:

  1. MarketsandMarkets

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact