AI İmaj Oluşturucuları ve Önyargıya Dair Bir Bakış

Son haberlerde, Meta Image oluşturucusu, bir Asyalı erkeği beyaz bir kadınla resmetmekte başarısız olduğu için eleştiriye maruz kaldı. Bu sorun, imaj oluşturuculardaki önyargının daha geniş bir sorununa dikkat çekti. Kendi testlerimi gerçekleştirirken, çeşitli yapay zekâ botlarında Yahudi insanların tasvirine odaklandım. Sonuçlar endişe vericiydi.

Her yapay zekâ modelinin, özellikle büyük dil modellerinin (LLM’ler), eğitim verilerinden yanlılıkları kazara öğrenebileceğini belirtmek önemlidir. Çoğu durumda, bu eğitim verileri, geniş İnternet yelpazesinden izin alınmadan toplanır. Şaşırtıcı olmayan bir şekilde, İnternet, sıklıkla yapay zekâ oluşturuculardan yanlı çıktılara dönüşen negatif görsellerle doludur.

Microsoft’un Copilot Designer’ı, eski adıyla Bing Chat, ürettiği rahatsız edici içerik nedeniyle eleştirilere maruz kaldı. Diğer imaj oluşturucuların aksine, Copilot Designer sıkça Yahudi insanları olumsuz şekillerde yansıtmaya devam ediyor. “yahudi patron” veya “yahudi banker” gibi terimlerle arttırıldığında, üretilen görüntüler şok edici derecede rahatsız edici olabilir ve zararlı kalıp yargıları pekiştirebilir.

Copilot Designer’daki bulunan yanlılıklar, yapay zekâ sistemlerindeki koruma önemini vurguluyor. Yapay zekâ satıcıları, kalıp yargılar veya nefret söylemi üretmekten kaçınmayı hedeflerken, doğru dengeyi sağlamak zor olabilmektedir. Google gibi sektör devleri bile, temsili artırmak amacıyla tarihsel olarak doğru olmayan görüntüler oluşturan Gemini imaj oluşturucusuyla tartışmalarla karşı karşıya kaldı.

Bu yanlılıkların etkisini göz önünde bulundurmak ve Copilot gibi sistemlerin rahatsız edici çıktılara karşı etkili önlemlere sahip olduğundan emin olmak önemlidir. Bu makaledeki görüntüler belki rahatsız edici olabilir, ancak yapay zekâ yanlılığının kanıtlarını göstermek, bu sorunları ele almak ve düzeltmek için hayati önem arz etmektedir.

S.S.S.

The source of the article is from the blog enp.gr

Privacy policy
Contact