Etiğin ve Hassaslığın Sorgulandığı AI Kullanımı: İsrail-Sivil Kayıpları Dengelerken

İsrail kuvvetlerinin, ‘Lavanta’ adlı gelişmiş bir yapay zeka aracını kullanarak Gazze’de on binlerce Filistinliyi hedef almak için kullanması son günlerde ortaya çıktı. Bu yeni teknolojinin kullanımı, hedeflerin doğruluğu konusunda ciddi endişelere neden olurken sivil kayıpları da gündeme getirdi.

İsrailli gazeteci Yuval Abraham tarafından derlenen bir rapora göre, birkaç İsrail istihbarat subayıyla anonim olarak görüşen Abraham, Lavanta’nın devam eden çatışma sırasında Filistinlilere karşı düzenlenen olağanüstü bombardımanda merkezi bir rol oynadığını belirtti. Özellikle endişe verici olan nokta, askeri birimin bu yapay zeka makinesinin çıktılarını insan kararı gibi ele alması, bu da hedeflerin hızla ve detaylı bir doğrulamadan geçmeden seçilmesine yol açmıştır.

Lavanta sistemi, Hamas’ın askeri kanadı ve Filistin İslam Cihadı (PIJ) içindeki muhtemel bombalama hedeflerini belirlemek için tasarlanmıştır. Çatışmanın ilk haftalarında, İsrail ordusu Lavanta’ya büyük ölçüde güvenerek yaklaşık olarak 37.000 kişiyi şüpheli militan olarak işaretledi ve evlerini potansiyel hedefler olarak gördü. Ancak, sistemin yaklaşık %10 civarında bir hata payına sahip olduğu bilinmektedir ve genellikle militan gruplarla zayıf bağlantıları veya hiç bağlantısı olmayan kişileri işaretlemektedir.

Bir diğer endişe verici nokta ise orduyun hedefleme yaklaşımıdır. İsrail ordusu genellikle bireyleri evlerinde hedef almış, özellikle gece ailelerinin bulunduğu sırada. Bu strateji, hedefleri özel konutlarında daha kolay bulmayı sağlamıştır. ‘Where’s Daddy?’ olarak da bilinen başka bir otomatik sistem, hedeflenen kişileri takip etmek ve onlar aile evlerine girdiğinde bombalamaları başlatmak için kullanılmıştır.

Sistemdeki hatalar açık olmasına rağmen, ordu bombalama hedefleri sırasında öldürülebilecek sivil sayısını artırmaya karar verdi. Ayrıca, otomatik yazılım her bir evdeki sivil sayısını yanlış hesaplayarak, sivil kayıplarının riskini artırmıştır.

Çatışma devam ettikçe, meşru tehditleri etkili bir şekilde hedef alıp sivil zararları en aza indirgemek arasındaki denge konusunda endişeler artmaktadır. Savaşta yapay zeka teknolojisinin kullanımı, dikkatli bir şekilde ele alınması gereken karmaşık etik soruları gündeme getirmektedir. Doğruluk ile sivil kayıplardan kaçınma arasında doğru dengeyi kurmak kritiktir ve gereksiz şekilde masum insanların kaybını önlemek için insan denetimini gerektirir.

Sıkça Sorulan Sorular (SSS)

Lavanta nedir ve nasıl çalışır?
Lavanta, Hamas ve Filistin İslam Cihadı (PIJ) içindeki askeri kanatlardaki şüpheli operatifleri potansiyel bombalama hedefleri olarak işaretlemek için İsrail kuvvetleri tarafından kullanılan gelişmiş bir yapay zeka aracıdır. Çeşitli istihbarat verilerine dayanarak bireyleri tanımlamak ve takip etmek için algoritmalar kullanır.

Sivil kayıpları neden endişe verici?
Lavanta’nın kullanımı, Hamas’ın düşük seviyeli operatifleri tanımlamadaki yüksek doğruluğuna rağmen, yaklaşık %10 oranında hata payına sahip olması nedeniyle endişelere neden olmuştur. Bu, sivil ölümlere ve sıklıkla militan gruplarla zayıf bağlantısı veya hiç bağlantısı olmayan hedeflenmiş bireylerin hayatlarına zarar vermiştir.

Neden İsrail askeri bireylerin evlerini hedef olarak seçti?
Bireyleri, genellikle gece aileleri bulunduğu sırada evlerinde hedef almak, istihbarat açısından stratejik olarak avantajlı olarak kabul edilmiştir. Bu strateji, hedefleri daha kolay bir şekilde bulmayı ve çevredeki altyapıya zarar vermeden sivil zayiatı en aza indirmeyi sağlamıştır.

“Where’s Daddy?” sisteminin rolü nedir?
“Where’s Daddy?” sistemi, hedeflenen kişileri takip etmek ve onlar aile evlerine girdiğinde bombalamaları başlatmak için kullanılan ek bir otomatik sistemdir. Bu sistem, Lavanta ile birlikte çalışarak saldırıların zamanlamasını ve uygulanmasını sağlamak için kullanılmıştır.

Endişeleri ele almak için alınan adımlar nelerdir?
Etik uygulamaların ve yapay zeka teknolojisinin savaşta kullanımının getirdiği riskler ortaya çıktıkça, daha fazla insan denetimi ve daha sıkı doğrulama süreçleri çağrısında bulunulmaktadır. Meşru tehditlere etkili bir şekilde hedef almayı ve sivil zararları en aza indirmeyi sağlamak, daha fazla inceleme gerektiren bir zorluk olmaya devam etmektedir.

İsrail kuvvetlerinin Filistinlilere karşı ‘Lavanta’ adlı yapay zeka aracını hedef almak için kullanması, savaşta yapay zeka teknolojisinin etik ve doğruluk konularına dikkat çekti. Bu durum, sivil kayıpları ve böyle operasyonlarda insan denetimine olan ihtiyacı gündeme getiriyor.

Lavanta, Hamas ve Filistin İslam Cihadı içindeki askeri kanatların potansiyel bombalama hedeflerini belirlemek için tasarlanmış gelişmiş bir yapay zeka aracıdır. İsrail ordusu, çatışmanın ilk haftalarında Lavanta’ya ağır bir şekilde güvendi ve yaklaşık olarak 37.000 kişiyi şüpheli militanlar olarak işaretledi ve evlerini potansiyel hedefler olarak gördü. Ancak, sistem yaklaşık %10 hata payına sahiptir ve genellikle militan gruplarla zayıf bağlantısı veya hiç bağlantısı olmayan kişileri hedeflemektedir.

Orduyun hedefleme yaklaşımı açısından endişe verici bir nokta, bireylerin genellikle evlerinde hedef alınmış olmasıdır, özellikle ailelerinin bulunduğu gece saatlerinde. Bu strateji, hedefleri özel konutlarında daha kolay bulmayı ve çevredeki altyapıya zarar vermeden sivil zayiatı en aza indirmeyi amaçlamıştır. ‘Where’s Daddy?’ olarak bilinen başka bir otomatik sistem, hedeflenen bireyleri takip etmek ve evlerine girdiklerinde bombalamaları başlatmak için kullanılmıştır.

Kararlar, makinenin seçimleri veya kararların temelini oluşturan ham istihbarat verileri üzerinde detaylı bir inceleme yapmak için gereken en az gereksinimler bulunmamaktadır. İnsan personel, bombalamaları onaylamak için sadece 20 saniye gibi kısa bir süre harcıyor ve AI makinesinin kararları için daha çok ‘kauçuk mühür’ görevi üstleniyor. Ordu, bombalamalar sırasında öldürülebilecek sivil sayısını artırma kararı aldı ve yazılım, her evdeki sivil sayısını yanlış bir şekilde hesapladı, bu da sivil kayıplarının riskini artırdı.

Çatışma devam ettikçe, meşru tehditlere etkili bir şekilde hedef almayı ve sivil zararları en aza indirmeyi göz önünde bulundurmakla ilgili endişeler artmaktadır. Savaşta yapay zeka teknolojisinin kullanımı, etik yönlerinin dikkatle ele alınması gereken soruları gündeme getirmektedir. Doğruluk ile sivil kayıplardan kaçınma arasında doğru dengeyi kurma, gereksiz şekilde masum insanların kaybını önlemek için insan denetimini talep eder.

Bu konu ve sektördeki ilgili konular hakkında daha fazla bilgi almak için şu adresi ziyaret edebilirsiniz: Example

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact