La Rivoluzione dell’Intelligenza Artificiale nella Guerra: Una Prospettiva Critica

L’intelligenza artificiale (AI) nella guerra è oggetto di intensa preoccupazione poiché solleva interrogativi sulla soppressione della volontà e dell’azione umana da parte delle macchine assassine controllate dall’AI. Tuttavia, i sistemi automatizzati basati sull’AI nella guerra convenzionale, operati dagli esseri umani, sono già in uso. La convinzione che i sistemi autonomi renderanno obsoleta l’azione umana è fuorviante, poiché la promessa di precisione nella guerra moderna suggerisce una riduzione delle vittime civili e un aumento della letalità contro i combattenti.

Uno studio di caso recente si concentra sull’uso dell’AI da parte di Israele nella guerra, in particolare nella Striscia di Gaza. Le Forze di Difesa Israeliane hanno incorporato l’AI nelle loro operazioni per identificare ed eliminare bersagli. Tuttavia, l’esito non è stato preciso né moralmente informato. Invece di limitare i danni ai civili, l’uso dell’AI da parte di Israele sembra aver ampliato gli obiettivi e potenzialmente causato danni massimi.

L’indagine su questa questione fa riferimento a una pubblicazione dal titolo “The Human-Machine Team: How to Create Human and Artificial Intelligence That Will Revolutionize Our World,” scritta dal Generale di Brigata Y.S., comandante dell’unità di intelligence israeliana 8200. La pubblicazione propone un sistema che genera rapidamente migliaia di bersagli potenziali durante il conflitto, eliminando la necessità di approvazione e verifica umana.

La collaborazione tra +972 e Local Call ha scoperto lo stadio avanzato di sviluppo di questo sistema, noto alle forze israeliane come Lavender. Lavender va oltre i precedenti sistemi di AI identificando edifici militari e strutture utilizzate dai miliziani. Tuttavia, anche questo sistema di identificazione non è riuscito a ridurre il numero di vittime, portando a quanto alcuni descrivono come una “fabbrica di assassinii di massa”.

Sei ufficiali di intelligence israeliani, che hanno prestato servizio durante la recente guerra di Gaza, hanno rivelato che il ruolo centrale di Lavender nei pesanti bombardamenti contro i palestinesi, in particolare nelle fasi iniziali del conflitto. La macchina di AI ha efficacemente ridotto l’elemento umano, conferendo un’apparente credibilità umana ai risultati dei bersagli.

Nelle prime settimane della guerra, le IDF hanno fatto largo uso di Lavender, identificando circa 37.000 palestinesi come possibili miliziani da colpire con raid aerei. Questo segnava un cambiamento dalla dottrina precedente di mirare a specifici dirigenti militari di alto rango. Con la nuova politica, tutti gli operativi di Hamas nel suo braccio militare, indipendentemente dal rango, sono stati designati come bersagli umani.

Gli ufficiali avevano ampi poteri per accettare liste di uccisione senza controlli, con appena 20 secondi concessi per bersaglio prima di autorizzare i bombardamenti. L’autorizzazione è stata concessa nonostante la consapevolezza che circa il 10% dei casi comportava errori nel bersagliare, segnando occasionalmente individui con deboli o nessuna connessione a gruppi militanti.

Inoltre, il sistema Lavender ha collaborato con un’altra piattaforma automatizzata chiamata “Where’s Daddy?” Questa piattaforma tracciava gli individui bersaglio fino alle loro abitazioni familiari, che venivano successivamente demolite. Il risultato sono state numerose vittime civili, con migliaia di palestinesi, tra cui donne, bambini e non combattenti, uccisi dai raid aerei israeliani durante le fasi iniziali del conflitto.

Un ufficiale di intelligence ha espresso la cruda realtà che uccidere gli operativi di Hamas nelle strutture militari o durante le attività militari non era ritenuto interessante. Invece, il focus era principalmente sul bombardare le loro case, poiché era un compito più semplice. Il sistema Lavender è stato specificamente progettato per tali situazioni.

L’uso di questo sistema comportava calcoli agghiaccianti e macabri. Due fonti hanno rivelato che, durante le prime settimane della guerra, le IDF hanno autorizzato l’uccisione di fino a 15 o 20 civili per ogni operativo di Hamas di grado inferiore individuato da Lavender. Per i funzionari di Hamas di livello più alto, le morti autorizzate potevano arrivare fino a 100 civili.

In risposta a queste rivelazioni, le IDF continuano ad affermare di non utilizzare un sistema di AI per identificare terroristi o prevedere lo status individuale come terrorista. L’argomento è che un database incrocia le fonti di intelligence sugli operativi militari delle organizzazioni terroristiche.

Il Segretario Generale delle Nazioni Unite, António Guterres, ha espresso profonda preoccupazione per i rapporti sull’uso da parte di Israele dell’AI per identificare bersagli, in particolare in aree residenziali densamente popolate. L’uso dell’AI in questo modo ha portato a un elevato numero di vittime civili, sollevando questioni etiche e morali sull’impatto della guerra guidata dall’AI.

Domande Frequenti

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact