AI Teknolojisinin Marginalleşmiş Topluluklara Etkisi

Sanal dünyayı deneyimleme şeklimizi şekillendiren Yapay Zeka (YZ) algoritmaları hayatımızın ayrılmaz bir parçası haline gelmiştir. Ancak, bu algoritmaların özellikle Siyah insanları hedef alan toplumların üzerindeki etkisi hakkında artan endişeler bulunmaktadır. Google’ın Gemini AI’sını içeren son olaylar, YZ teknolojileri tarafından Siyah bireylerin süregelen mağduriyetini aydınlatmıştır.

Metni resme dönüştüren Gemini AI ürünü, hatalı çıktılarından dolayı şiddetli eleştirilere maruz kalmış ve Google, ürünü çevrimdışı duruma getirmişti. Bu tür sorunların temel sebeplerine yönelik bir çözüm üretmek yerine Google’ın bu hızlı tepkisi, YZ algoritmalarındaki sistemik önyargıyı kabul etmemektedir.

Yalanları, kalıpları ve ayrımcılığı pekiştiren algoritmik araçlar yeni bir fenomen değildir. 2018’deki araştırmasında Safiya Noble, Google’da “Siyah kızlar” aramasının endişe verici miktarda pornografik ve aşağılayıcı içerik ürettiğini vurgulamıştı. Ayrıca, YZ sağlık algoritmalarının başkalarına göre Siyah hastalar için daha az tıbbi tedavi önerdiği tespit edilmiştir.

Önyargıyla ilgili çarpıcı bir örnek, Gemini gibi görsel YZ platformlarında meydana gelir. Koyu tenli bireyleri farklı açılardan görselleştirmesi istendiğinde, algoritma sürekli olarak onların ten rengini açıklaştırır ve ardışık pozlarda beyaz özelliklere sahip bir nihai görüntü oluşturur. Bu çıktılar açıkça bir dışlama ve yanlış temsil deseni sergilese de sorumlu teknoloji şirketleri durumu düzeltmek için fazla bir şey yapmazlar.

Büyük Teknoloji şirketleri, algoritmik ırkçılık iddialarına genellikle mevcut teknolojilerine sadece katlanarak cevap verir. Zaman zaman özür dilense de, genellikle somut bir eylemde bulunmazlar ve yalnızca kelimelerle yetinirler. Bu, geçici zarar içermeyen skandallara karşı gösterdikleri hızlı tepkilerle keskin bir tezat oluşturur, örneğin tarihi figürlerin veya süper kahramanların yanlış temsil edilmesi gibi.

Bu tür algoritmik önyargıların sonuçları yalnızca duygulardan öteye gitmektedir. 2017’de ProPublica’nın yaptığı araştırma, Facebook’un nefret söylemi tespit algoritmalarının Siyah çocukların gönderilerini orantısız olarak işaretlediğini ve beyaz erkeklerin nefret dolu içeriğine izin verdiğini ortaya koymuştur. Benzer şekilde, The Markup 2021’de raporlamıştır ki Google’ın YouTube’daki reklam engelleme politikaları, “Black Lives Matter” veya “Black Excellence” konularında ilgilenen izleyicilere hedefleme yapmasını önlemişti.

Profesör Meredith Broussard’ın “Daha Fazlası Yedeksiz: Teknolojide Irk, Cinsiyet ve Yetenek Önyargısıyla Yüzleşme” kitabında belirttiğine göre, teknoloji endüstrisi marjinalleşmiş toplulukları orantısız bir şekilde yanlış temsil ediyor, kalıplaşıyor ve dışlıyor. Bu durum özellikle Siyah bireyler için geçerlidir. Bu önyargıların neden olduğu zararı tanımak ve teknoloji şirketlerinden hesap sormanın önemi büyüktür.

Marjinalleştirilmiş toplulukları zararlı YZ algoritmalarından korumak için seçilmiş yetkililerin harekete geçmeleri büyük önem taşımaktadır. Suç artışlarını ele almak için Ulusal Muhafızları görevlendirebilecekleri gibi, teknoloji şirketlerinin zarar görmesine neden olan algoritmaların düzeltilmesini veya devre dışı bırakılmasını talep edebilirler. Hızlı hareket etmeyi sağlayan yasal müdahaleler mevcuttur ve herhangi bir bireyin veya topluluğun haksız dışlanmasını önlemek için bunların uygulanması gerekmektedir.

Siya insanları hedef alan algoritmik önyargıları ele almak için proaktif bir yaklaşım zamanı gelmiştir. Ciltlerine göre bireyleri görmezden, aşağılamadan veya tehlikeye atmaktan kaçınmayan algoritmaların satılması yasa dışı olmalıdır. Teknoloji şirketlerini hesap verebilir kılarak, daha adil ve kapsayıcı bir geleceğe doğru ilerleyebiliriz.

SSS

The source of the article is from the blog zaman.co.at

Privacy policy
Contact