Impatto Disturbante delle Operazioni Militari Israeliane su Intelligenza Artificiale

Recenti investigazioni hanno portato alla luce l’utilizzo di un programma basato sull’intelligenza artificiale noto come “Lavanda” da parte dell’esercito israeliano. Questo programma, presentato ufficialmente per la prima volta, ha giocato un ruolo centrale nel massiccio bombardamento dei palestinesi nelle fasi iniziali della guerra nella Striscia di Gaza.

Il sistema Lavanda, impiegato dall’esercito israeliano, è progettato per identificare potenziali obiettivi per gli attacchi militari. Marcia tutti gli operativi sospettati di Hamas e Jihad Islamica Palestinese come obiettivi potenziali per i bombardamenti, includendo anche individui di basso rango. Il sistema è in grado di generare migliaia di obiettivi potenziali elaborando rapidamente enormi quantità di dati.

Durante le prime settimane della guerra, l’esercito israeliano ha fatto ampio uso di Lavanda, basando quasi interamente il proprio processo decisionale sugli output della macchina. Sorprendentemente, anziché esaminare attentamente le scelte effettuate dal programma AI, gli ufficiali militari spesso fungevano da semplici “timbri” per le decisioni della macchina, dedicando un tempo minimo a ciascun obiettivo prima di autorizzare i bombardamenti. Il sistema Lavanda, nonostante il suo noto margine di errore, individuava individui con collegamenti vaghi o nessun collegamento affatto a gruppi militanti.

Ancora più inquietante è il targeting deliberato dell’esercito verso individui nelle loro case, spesso di notte quando erano presenti le loro famiglie. Questo approccio strategico si basava sulla convinzione che fosse più facile individuare gli individui nelle loro residenze private. Altri sistemi automatizzati, come “Dov’è Papà?,” venivano utilizzati per individuare gli individui bersagliati e effettuare bombardamenti quando si trovavano all’interno delle abitazioni familiari.

I risultati di questi bombardamenti indiscriminati sono devastanti. Migliaia di palestinesi, inclusi donne, bambini e individui non coinvolti nei combattimenti, hanno perso la vita a causa delle decisioni del programma AI. È evidente che l’esercito ha prioritizzato il targeting di presunti operativi, anche se si trovavano in luoghi non militari, anziché concentrarsi esclusivamente sugli edifici o sulle attività militari.

La macchina Lavanda opera in modo diverso da un altro sistema AI chiamato “Il Vangelo.” Mentre Il Vangelo identifica edifici e strutture da cui l’esercito afferma che operano i militanti, Lavanda segna specificamente individui, mettendoli in una lista di eliminazione. Questa distinzione è cruciale per comprendere il funzionamento del sistema e gli obiettivi che identifica.

Inoltre, quando si tratta di presunti giovani militanti individuati da Lavanda, l’esercito preferiva utilizzare missili non guidati, comunemente noti come bombe “dure.” Queste bombe possono distruggere interi edifici insieme ai loro occupanti, portando a significative vittime. Il motivo di questa scelta era quello di conservare costose bombe di precisione “intelligenti” per obiettivi più importanti, una strategia basata sull’efficienza dei costi e la scarsità di queste specifiche armi.

In una rivelazione scioccante, durante le prime settimane della guerra, l’esercito ha autorizzato la morte fino a 15 o 20 civili per ogni operativo di Hamas identificato da Lavanda. Questo segnava un cambiamento rispetto alla posizione precedente dell’esercito di minimizzare i danni collaterali durante gli assassinii di militanti di basso rango. Inoltre, nel caso di alti funzionari di Hamas, è stata autorizzata la morte di oltre 100 civili per l’assassinio di un singolo comandante di alto rango.

L’impatto dell’IA sulle operazioni militari solleva preoccupazioni etiche e mette in evidenza la necessità di considerare attentamente le decisioni prese da tali sistemi. Sebbene la tecnologia AI offra preziose capacità nel trattamento e nell’analisi dei dati, deve essere utilizzata in modo responsabile e con una chiara comprensione dei suoi limiti.

Domande Frequenti

  1. Cos’è Lavanda?
    Lavanda è un programma basato sull’intelligenza artificiale utilizzato dall’esercito israeliano per identificare potenziali obiettivi per attacchi militari. Marca individui sospettati di essere operativi di Hamas e della Jihad Islamica Palestinese, inclusi coloro che occupano posizioni di basso rango.
  2. Come funziona Lavanda?
    Lavanda elabora rapidamente enormi quantità di dati per generare potenziali obiettivi. Assegna individui come potenziali obiettivi per i bombardamenti in base ai loro presunti legami con gruppi militanti.
  3. Qual è l’impatto di Lavanda sulle operazioni militari?
    Lavanda ha giocato un ruolo centrale nel massiccio bombardamento dei palestinesi, specialmente durante le fasi iniziali della guerra. L’influenza del programma sul processo decisionale militare è stata così significativa che gli output della macchina AI sono stati trattati come se fossero decisioni umane.
  4. Quali sono le preoccupazioni etiche associate all’uso di Lavanda?
    L’uso di Lavanda solleva preoccupazioni etiche poiché ha portato al targeting indiscriminato di individui, con la conseguenza della perdita di migliaia di vite palestinesi, inclusi donne, bambini e coloro non coinvolti nei combattimenti. Ci sono preoccupazioni sugli errori del programma e il suo impatto sulle vittime civili.
  5. Come vengono utilizzati i missili non guidati in combinazione con Lavanda?
    Lavanda identifica presunti giovani militanti, e l’esercito preferisce utilizzare missili non guidati, noti anche come bombe “dure,” per questi obiettivi. Queste bombe hanno il potenziale per distruggere interi edifici e causare significative vittime. È un approccio efficiente in termini di costi, riservando le costose bombe di precisione “intelligenti” per obiettivi più importanti.

Fonti:

  1. +972 Magazine
  2. Local Call

Oltre alle informazioni fornite nell’articolo, è importante comprendere le previsioni dell’industria e del mercato relative all’intelligenza artificiale (IA) nelle operazioni militari. L’uso dell’IA nella guerra è una tendenza in crescita, con molti paesi che investono pesantemente nello sviluppo e nell’integrazione di sistemi basati sull’IA nelle loro strategie militari.

Le previsioni di mercato indicano che il mercato globale dell’IA militare raggiungerà un valore di $18,82 miliardi entro il 2025, con un tasso di crescita annuo composto del 14,75% durante il periodo di previsione. La crescente domanda di sistemi autonomi, capacità decisionali intelligenti e consapevolezza situazionale migliorata sta guidando la crescita di questo mercato. La tecnologia dell’IA offre il potenziale per ottimizzare le operazioni militari elaborando e analizzando vaste quantità di dati, migliorando l’identificazione degli obiettivi e potenziando il coordinamento tra diverse unità militari.

Tuttavia, l’uso dell’IA nelle operazioni militari solleva anche significative preoccupazioni ed sfide etiche. Il caso di Lavanda mette in luce il potenziale per i sistemi di IA di prendere decisioni di parte o incorrette, portando a conseguenze non volute e vittime civili. Il targeting indiscriminato di individui, specialmente in luoghi non militari, è stato un problema importante nell’uso di sistemi militari basati sull’IA. È essenziale considerare attentamente le implicazioni etiche e legali dell’impiego di tali sistemi e garantire che siano in atto adeguate misure di sicurezza per ridurre al minimo i danni ai civili.

È importante notare

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact