Yapay Zeka ve Seçimler: Dikkat Edilmesi Gereken Noktalar

Yapay zeka teknolojisinin seçimleri bozmak amacıyla kullanılması, özellikle bu yıl Hindistan, Güney Kore ve Amerika Birleşik Devletleri’nde düzenlenecek olan önemli seçimlerle ilgili büyüyen bir endişe haline geldi. Microsoft tarafından yayınlanan bir rapora göre, Çin devlet destekli siber grupların bu yüksek profilli seçimlere yapay zeka teknolojisini kullanarak hedef aldığı öngörülüyor.

Taiwan başkanlık seçimi sırasında, Çin, sonucu etkilemek için yapay zeka üretilmiş içerik kullanarak deneme çalışması yaptı. YouTube’da sahte ses klipleri paylaşıldı ve seçim adayı Terry Gou’nun bir rakip adayı desteklediği iddia edildi. Microsoft’un analizinin ardından kliplerin “muhtemelen yapay zeka tarafından üretildiği” belirlendi.

Microsoft’un tehdit istihbarat ekibinin raporu, Çin siber aktörlerinin, kısmen Kuzey Koreli siber aktörlerin de bazı durumlarda, 2024’te Hindistan, Güney Kore ve Amerika Birleşik Devletleri’nde yapılacak olan seçimlere hedeflenmesi beklendiğini belirtiyor.

Raporda Çin’in stratejisi, bu seçimlerde pozisyonlarını ilerletmek amacıyla sosyal medya platformları aracılığıyla yapay zeka üretilen içerik oluşturup dağıtmayı içeriyor. Bu tür içeriğin anlık etkisi sınırlı olsa da, Çin’in, ileride memeleri, videoları ve sesleri artırarak denemesi etkili olabilir.

Taiwan seçiminde, Pekin destekli Storm 1376 adlı bir grup, egemenlik yanlısı bir adaya hedef alan yapay zeka üretilmiş memeleri aktif bir şekilde dolaşıma soktu. Memeler, adayı zimmete para geçirmekle suçlayan, Pekin’in adaylığına karşı olduğunu yansıtan temelsiz iddiaları içeriyordu.

Rapor ayrıca Amerika Birleşik Devletleri’nde Çin grupları tarafından düzenlenen devam eden etki kampanyalarını da vurguluyor. Pekin destekli aktörler, Amerikalı seçmenleri bölen konular hakkında “bölücü sorular” yöneltmek ve seçmenler arasındaki konularda iç görü kazanmak için sosyal medya hesaplarını kullanıyor. Bu çabalar, istihbarat toplamayı ve ABD başkanlık seçimine hazırlık için önemli seçmen demografilerine olan anlayışlarını geliştirmeyi amaçlayabilir.

Yapay zekanın seçim süreçlerine potansiyel etkisi hakkındaki endişeler büyüdükçe, hükümetler ve sosyal medya platformlarının gözü açık olmak son derece önemli. Seçimlerin bütünlüğünü korumak için yapay zeka üretilmiş içeriklerin yayılmasını engellemek için proaktif önlemler alınması gerekmektedir.

SSS

1. Yapay zeka üretilmiş içerik nedir?
– Yapay zeka üretilmiş içerik, yapay zeka sistemleri tarafından oluşturulan veya değiştirilen metin, ses veya görsel medya türlerini ifade eder. Bu sistemler, insan yaratıcılığını veya iletişimini taklit eden içerikler üretmek için algoritmalar ve makine öğrenimi kullanır.

2. Yapay zeka nasıl seçimleri bozmak için kullanılabilir?
– Yapay zeka, seçim kampanyaları sırasında yanlış bilgi, sahte haber ve propaganda yaymak için kullanılabilir. Otantik görünen içerikler üreterek, yapay zeka halkın görüşlerini manipüle edebilir, seçmen davranışlarını etkileyebilir veya adayların güvenilirliğini zayıflatabilir.

3. Çin devlet destekli siber grupların seçim müdahalesindeki rolü nedir?
– Çin devlet destekli siber grupların hedeflenmiş seçim müdahalesinde önemli bir rol oynadığına inanılmaktadır. Bu gruplar tercih ettikleri adayları destekleyen veya politik ajandaları ile uyumlu içerikler oluşturup yaymak için yapay zeka teknolojisinden yararlanabilirler. Faaliyetleri, dezinformasyon yaymaktan seçim sistemlerine siber saldırılar düzenlemeye kadar genişleyebilir.

4. Seçimleri AI kaynaklı bozulmalardan nasıl korunabilir?
– Seçimleri AI kaynaklı bozulmalardan korumak için, hükümetler ve teknoloji platformları yapay zeka üretilmiş içeriklerin tespiti ve temizlenmesini önceliklendirmelidir. Siber güvenlik önlemlerini artırmak, dijital reklamlarda şeffaflığı teşvik etmek, medya okuryazarlığını desteklemek ve AI tabanlı tespit ve ılımlama araçlarına yatırım yapmak, seçim süreçlerindeki AI ile ilişkilendirilen potansiyel tehditlerle mücadele etmek için temel adımlardır.

Kaynaklar:
1. Microsoft Raporu
2. The Guardian

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact