Programma di intelligenza artificiale identifica migliaia di sospetti a Gaza

Il programma di analisi dei dati Lavender è stato menzionato per avere segnalato circa 37.000 individui come potenziali affiliati di Hamas a Gaza, dove risiedono circa 2,3 milioni di persone. Le informazioni fornite da fonti a Tel Aviv su “+972” e Local Call suggeriscono che l’algoritmo ha valutato la probabilità di connessione di una persona ad Hamas basandosi su criteri oscuri.

Durante le fasi iniziali del conflitto, l’esercito israeliano avrebbe seguito rigorosamente le scoperte del programma, con gli individui identificati che venivano presi di mira senza criteri discernibili, purché fossero uomini.

Il concetto controverso di “bersagli umani”, storicamente riservato a figure militari di alto rango, è stato notevolmente ampliato dopo il 7 ottobre per includere una vasta gamma di individui percepiti come aventi legami con Hamas. Questa significativa espansione dei potenziali bersagli ha limitato la fattibilità della verifica individuale, spingendo verso una maggiore dipendenza dall’intelligenza artificiale.

Una fonte ha espresso preoccupazione per incidenti in cui una casa veniva bombardata per eliminare un nome “non significativo”, il che implica l’ammissione di massacri di civili a Gaza. Inoltre, queste fonti evidenziano operazioni contro bersagli di basso livello in cui sono state permesso fino a 20 civili inermi, indicando una violazione del principio di proporzionalità. Al contrario, la soglia di vittime per i bersagli di alto valore è stata segnalata di arrivare fino a 100 civili.

Azioni semplici come cambi di cellulare regolari o di residenza, o far parte di un gruppo WhatsApp anti-Israele, erano considerate sufficienti per essere inclusi in un elenco che potrebbe portare a conseguenze mortali – un chiaro riflesso dei criteri ampi applicati dai forzi israeliani ai residenti di Gaza.

Le tecnologie di intelligenza artificiale (AI) sono state sempre più incorporate nelle operazioni militari e di sorveglianza, con le nazioni che utilizzano tali strumenti per vari scopi, tra cui l’identificazione di minacce potenziali. L’uso dell’IA in tali contesti solleva diverse importanti questioni, sfide e controversie, nonché vantaggi e svantaggi che vale la pena esplorare in relazione all’argomento dell’uso dell’IA per identificare sospetti a Gaza.

Domande Chiave:
1. Quali sono le implicazioni etiche dell’uso dell’IA nelle decisioni di targeting militare?
2. In che modo l’uso di un programma AI come questo è conforme al diritto internazionale, tra cui i principi di distinzione e proporzionalità?
3. Quali garanzie esistono per assicurare l’accuratezza delle informazioni generate dall’IA?
4. In che modo l’uso dell’IA nelle operazioni militari influenza la popolazione civile nelle zone di conflitto?

Sfide e Controversie Chiave:
1. Accuratezza e Bias: I sistemi AI dipendono dalla qualità e dal bias dei dati su cui vengono addestrati. C’è il rischio di identificazione erronea e la possibilità di un targeting sproporzionato di certi gruppi o individui.
2. Preoccupazioni Etiche: L’applicazione dell’IA a scopi militari, specialmente nelle decisioni di targeting, pone in discussione la responsabilità per le vittime civili e la moralità di fare affidamento su algoritmi per decisioni di vita o di morte.
3. Trasparenza: I criteri e gli algoritmi utilizzati nei programmi AI come Lavender sono spesso oscuri, rendendo difficile valutarne l’equità e rendere gli operatori responsabili.
4. Conformità alle Leggi Internazionali: Ci sono preoccupazioni su se le operazioni mirate dall’IA siano conformi al diritto internazionale umanitario, che impone la protezione dei civili nei conflitti.

Vantaggi:
1. Efficienza: L’IA può elaborare grandi quantità di dati molto più velocemente rispetto agli esseri umani, identificando potenzialmente minacce che altrimenti potrebbero passare inosservate.
2. Coerenza: I programmi AI possono applicare gli stessi criteri in modo coerente, mentre il giudizio umano potrebbe variare.

Svantaggi:
1. Vittime Civili: La mancanza di verifica precisa può portare a rischi maggiori di vittime civili, specialmente quando viene stabilita una soglia elevata di vittime per gli attacchi su determinati obiettivi.
2. Responsabilità: È difficile attribuire responsabilità per errori o comportamenti scorretti quando le decisioni sono prese o assistite dall’IA.

Per ulteriori informazioni, i lettori interessati a saperne di più sull’intelligenza artificiale e sulle sue implicazioni possono visitare organizzazioni di ricerca e policy sull’IA. Ecco due organizzazioni leader:
AI Now Institute – Si concentra sulle implicazioni sociali dell’intelligenza artificiale.
Partnership on AI – Una partnership tra importanti aziende tecnologiche, la società civile e accademici per stabilire le migliori pratiche per l’IA.

Privacy policy
Contact