Başlık

2020 seçimlerinde Başkan Joe Biden’ın zaferini destekleyen artan kanıtlara rağmen, hâlâ zaferinin meşruiyetini sorgulayan önemli sayıda Cumhuriyetçi bulunmaktadır. Bu şüphecilik, seçimlerde aday olan sağcıların seçim dolandırıcılığı iddialarının yaygınlığıyla beslenmektedir. Şimdi, jeneratif yapay zeka (AI) dönemiyle, seçimlerle ilgili yanıltıcı bilgilerin yayılma sorunu potansiyel olarak kötüleşebilir.

Digital Nefreti Karşı Merkezi (CCDH) tarafından yayınlanan son rapor, seçimler sırasında yanıltıcı bilgilerin yayılmasında jeneratif AI’nın risklerine ışık tutmuştur. Jeneratif AI araçları geliştiren şirketler, bu tür yanıltıcı bilgilerin yayılmasını önlemek için koruma önlemleri aldıklarını iddia etmelerine rağmen, CCDH araştırmacıları bu önlemleri atlayarak yanıltıcı resimler oluşturmayı başardılar.

CCDH araştırmacıları, ChatGPT Plus, Midjourney, Dream Studio ve Image Creator dahil çeşitli jeneratif AI platformlarını test ettiler. Sonuçlar, Midjourney’in seçimlerle ilgili yanıltıcı resimler oluşturma eğiliminde olduğunu ve yaklaşık %65 doğruluk oranına sahip olduğunu gösterdi. Karşılaştırma yapmak gerekirse, ChatGPT Plus bu tür resimleri yalnızca zamanın %28’inde üretti.

CCDH’de baş araştırmacı olan Callum Hood’un vurguladığı endişelerden biri, bu platformlarda yanıltıcı resimler oluşturmanın teşvik edilebileceği resimlerin yaratılması konusunda net politikalar ve güvenlik önlemlerinin olmamasıdır. Hood, platformların yanıltıcı resimlerin oluşturulmasını engellemeye odaklanmanın yanı sıra bu tür içerikleri etkili bir şekilde tespit etmeye ve kaldırmaya da odaklanması gerektiğini vurgulamaktadır.

OpenAI bu sorunu ele almak için demokratik katılımı engelleyen resimleri yasaklama gibi adımlar atmış olsa da, Midjourney ve Dream Studio gibi diğer platformlar politik veya yanıltıcı içerik oluşturma konusunda açıkça bir şey söylememişlerdir. Bu durum, jeneratif AI platformlarının seçimlerle ilgili bilgilerin doğruluğunu ve bütünlüğünü sağlama konusundaki genel hazırlığını sorgulamaktadır.

Yaklaşan seçimler, jeneratif AI platformlarının güvenlik protokollerinin gerçek bir sınavı olacaktır. Hood, yanıltıcı resim oluşturmayı önleme konusunda etkili araçların geliştirilmesi ve bu içerikleri tespit edip kaldırabilen sağlam platformların uygulanmasında ilerleme gerekliliğini vurgulamaktadır. Seçimlerin bütünlüğünü sağlamak ve yanlış bilgilerin yayılmasını önlemek, AI geliştiricileri, platform operatörleri ve politika yapıcılar arasında paylaşılan bir sorumluluk olarak vurgulanmaktadır.

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact