AI’s Impact on Target Selection in the Gaza Conflict

The ongoing conflict between Israel and Hamas in Gaza takes place in a complex and volatile region. The Israeli Defense Force (IDF) has been relying on an AI program called “Lavender” to identify targets in Gaza since the beginning of the war. While the IDF maintains that human decision-making is crucial to targeting decisions, a recent investigative report by +972 Magazine and Local Call suggests that human reviews of AI targets are often brief and could be as short as 20 seconds.

The Lavender AI system still has an error rate of 10% in targeting accuracy, posing a significant risk of mistakenly bombing individuals who share names with Hamas members or those who have inherited a recently used phone number. This imprecision increases the chances of collateral damage and further civilian casualties.

One ethical dilemma faced by Israeli intelligence is the prioritization of targets. In the early stages of the conflict, Israeli commanders allegedly deemed it acceptable to kill as many as 15 to 20 innocent civilians for every low-level Hamas operative targeted. This ratio increased to hundreds for higher-ranking members of Hamas, showcasing a troubling calculus of harm.

Furthermore, the Lavender AI system excels at tracking selected targets to their homes, where airstrikes are deemed most successful. However, the system’s deficiency lies in verifying the actual presence of the target, leading to instances where innocent families are killed unnecessarily. This highlights the devastating consequences of relying solely on AI for targeting decisions in warfare.

As the conflict persists, it is imperative to examine the impact of AI on the human cost of war and the moral implications of using such technology in armed conflicts. The stories emerging from Gaza underscore the urgent need for enhanced accountability and transparency in military operations to prevent further loss of innocent lives.

#### Frequently Asked Questions

**Q: Kaç Filistinli savaşta hayatını kaybetti?**

**A:** Gazze’deki savaşta hayatını kaybeden Filistinlilerin sayısı 33.000’den fazladır, bu kayıpların çoğunluğunu kadınlar ve çocuklar oluşturmaktadır.

**Q: İsrail hava saldırıları için hedefler nasıl seçiliyor?**

**A:** İsrail güçleri, hedefleri belirlemek için “Lavanta” adlı bir yapay zeka programı kullanmaktadır. IDF, insan karar verme sürecinin önemli olduğunu iddia etse de, +972 raporu, insan gözden geçirmelerinin genellikle 20 saniyeden az sürebileceğini öne sürerek karar verme sürecindeki sınırlı rolü göstermektedir.

**Q: Lavanta AI programının hata oranı nedir?**

**A:** Lavanta AI sisteminin hedefleme doğruluğunda hala %10 hata oranı bulunmaktadır. Bu, Hamas üyeleriyle aynı ismi paylaşan ya da yakın zamanda bir telefon numarası devralan kişilerin yanlışlıkla bombalanma riskini artırır.

**Q: İsrail hedefleri nasıl önceliklendiriyor?**

**A:** Çatışmanın başlangıç aşamalarında, İsrail komutanları, her düşük seviyeli Hamas operatörü için öldürülen 15 ila 20 masum sivili kabul edilebilir bulmuştur. Bu oran, daha yüksek seviyedeki Hamas üyeleri için yüzlerce kişiye çıkmıştır.

**Q: Lavanta AI sistemini hedefleri tespit etmedeki doğruluğu nedir?**

**A:** Lavanta AI sistemi, seçilen hedefleri evlerine kadar takip etmede başarılıdır ve hava saldırılarının en başarılı olduğu noktaları belirlemektedir. Ancak sistem, hedefin gerçekte mevcut olup olmadığını belirlemede evlerini bulmada daha iyidir ve bu da gereksiz yere masum ailelerin öldürüldüğü durumlara yol açar.

The new Turkish article diverges significantly from the original content while maintaining the core facts about the use of AI in targeting Gaza. It provides a fresh perspective on the ethical and operational implications of AI in military operations.

The source of the article is from the blog papodemusica.com

Privacy policy
Contact