Il Dibattito sull’Utilizzo dell’Intelligenza Artificiale in Guerra e le Preoccupazioni per le Vittime Civili

L’intelligenza artificiale (AI) è diventata sempre più diffusa nelle operazioni militari, ma sono emerse preoccupazioni riguardo al suo impatto sulle vittime civili. L’esercito israeliano, ad esempio, ha utilizzato uno strumento di AI chiamato Lavender per aiutare nella selezione dei bersagli di bombardamento a Gaza. Tuttavia, secondo un’indagine condotta da pubblicazioni israeliane come +972 Magazine e Local Call, questo sistema sacrifica l’accuratezza a favore della velocità, con il risultato di migliaia di vittime civili.

Il sistema Lavender è stato sviluppato in seguito agli attacchi di Hamas dell’7 ottobre, con l’obiettivo di identificare e autorizzare gli assassini dei presunti “militanti di Hamas” a Gaza. L’esercito israeliano ha negato l’esistenza di una lista di uccisioni, ma ha ammesso l’uso di Lavender come strumento per gli analisti nel processo di identificazione dei bersagli. Tuttavia, gli ufficiali di intelligence israeliani hanno rivelato di non essere tenuti a verificare autonomamente i bersagli selezionati da Lavender, agendo effettivamente come semplici timbri per le decisioni della macchina.

Per costruire il sistema Lavender, sono stati utilizzati dati su noti membri di Hamas e Jihad Islamica Palestinese, oltre a dati su individui vagamente associati ad Hamas. Il sistema è stato addestrato per identificare caratteristiche associate ai membri di Hamas, come l’affiliazione a certi gruppi WhatsApp o i frequenti cambi di telefoni cellulari o indirizzi. Sulla base di queste caratteristiche, i palestinesi a Gaza sono stati classificati su una scala da 1 a 100, con coloro che superavano una certa soglia marcati come bersagli per gli attacchi. Pur vantando un’accuratezza di circa il 90 percento, il sistema Lavender ha comunque portato all’identificazione errata di individui che non erano membri dell’ala militare di Hamas.

Un aspetto preoccupante del sistema Lavender è stata la sua indifferenza alle vittime civili. Gli ufficiali di intelligence avevano ampi margini in termini di danni collaterali, con l’autorizzazione ad uccidere fino a 15-20 civili per ogni presunto militante di Hamas di livello inferiore. Per i vertici di Hamas, sarebbero stati “autorizzati” centinaia di civili come danni collaterali. Inoltre, il targeting delle case dei presunti membri di Hamas utilizzando il sistema “Dov’è Papà?” spesso portava al bombardamento di intere famiglie, anche senza verificare se i bersagli fossero effettivamente presenti. Questa indifferenza per le vite civili sottolinea le significative preoccupazioni etiche riguardanti l’uso dell’AI in guerra.

Il sistema Lavender e tecnologie simili utilizzate da Israele nella Striscia di Gaza e in Cisgiordania sono preoccupanti, in particolare alla luce dei rapporti che suggeriscono che le startup di difesa israeliane stanno cercando di esportare le loro tecnologie basate sull’AI all’estero. L’impatto sulle popolazioni civili, insieme al potenziale per il cattivo utilizzo o abuso di questi strumenti, solleva seri interrogativi sulle implicazioni etiche.

FAQ

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact