L’utilizzo dell’intelligenza artificiale da parte di Israele suscita preoccupazioni

L’intelligenza artificiale (AI) è diventata un argomento di preoccupazione poiché paesi come gli Stati Uniti e la Cina la incorporano nelle loro operazioni militari. Recentemente sono emerse segnalazioni secondo cui Israele avrebbe utilizzato la tecnologia AI per identificare i bersagli dei bombardamenti a Gaza, sollevando profonde preoccupazioni sulla sicurezza dei civili e sui confini sfumati dell’accountability.

Secondo +972 Magazine e Local Call con sede a Tel Aviv, Israele stava utilizzando un programma AI chiamato “Lavender” per generare bersagli per assassini, in particolare Palestinesi sospettati di essere militanti di Hamas. Il rapporto afferma che questo sistema AI ha svolto un ruolo significativo nella campagna di bombardamenti senza precedenti contro i Palestinesi.

Il Segretario Generale delle Nazioni Unite Antonio Guterres ha espresso il suo sconforto per l’uso dell’AI in questo modo. Ha sostenuto che decisioni vita-morte che hanno un impatto su intere famiglie non dovrebbero essere lasciate agli algoritmi. Guterres ha sottolineato che l’AI dovrebbe essere una forza positiva, benefica per il mondo anziché contribuire all’escalation della guerra e alla diminuzione dell’accountability.

L’articolo di Yuval Abraham su +972 Magazine ha citato ufficiali di intelligence Israeli che avevano avuto un coinvolgimento diretto nell’uso dell’AI per generare bersagli per gli assassinii. Questi ufficiali hanno rivelato che l’influenza del programma AI Lavender era così sostanziale che le sue uscite erano trattate come se fossero decisioni umane. Le liste di uccisione del software erano approvate dagli ufficiali e solo “convalidate” dagli esseri umani, nonostante il riconoscimento che il sistema commetteva errori in circa il 10% dei casi e talvolta prendeva di mira individui con connessioni scarse o nulle a gruppi militanti.

Le fonti di Abraham hanno affermato che migliaia di Palestinesi, molti dei quali civili innocenti tra cui donne e bambini, sono stati uccisi nei raid aerei Israeli nelle prime fasi della guerra a causa delle decisioni prese dal programma AI. Lavender avrebbe selezionato circa 37.000 militanti di Hamas per l’assassinio, prevalentemente membri di basso livello.

L’uso dell’AI in guerra pone serie questioni etiche e mette alla prova i principi del diritto internazionale. L’Assemblea Generale delle Nazioni Unite ha recentemente adottato una risoluzione non vincolante volta a promuovere lo sviluppo di sistemi AI sicuri, protetti e affidabili. Tuttavia, questa risoluzione, co-sponsorizzata da oltre 110 paesi tra cui la Cina, non ha affrontato l’uso militare dell’AI.

Le Forze di Difesa Israeliane (IDF) negano l’uso dell’AI nell’identificazione dei bersagli, affermando che i loro sistemi informativi sono solo strumenti utilizzati dagli analisti nel processo di identificazione dei bersagli. L’IDF sostiene che gli analisti devono condurre esami indipendenti per garantire che i bersagli identificati rispettino le definizioni pertinenti secondo il diritto internazionale e le linee guida Israeli.

Mentre la specificità di questo caso è ancora oggetto di contestazione, la più ampia conversazione sull’uso militare dell’AI richiede una considerazione attenta. È cruciale valutare i potenziali benefici dell’AI nel potenziare le capacità militari contro i rischi che comporta per la sicurezza dei civili, l’accountability e il rispetto delle leggi e delle norme internazionali.

FAQ:

Q: Cos’è il programma Lavender?

A: Il programma Lavender è un sistema di intelligenza artificiale (AI) utilizzato presumibilmente da Israele per identificare i bersagli dei bombardamenti a Gaza.

Q: Quali sono le preoccupazioni riguardanti l’uso dell’AI da parte di Israele nei bombardamenti?

A: Le preoccupazioni ruotano attorno alla sicurezza dei civili e alla sfocatura dell’accountability nelle decisioni vita-morte. Ci sono preoccupazioni sugli errori potenziali compiuti dai sistemi AI e sull’impatto sugli individui innocenti.

Q: Quanti Palestinesi sono stati uccisi nella campagna di bombardamento?

A: Secondo il ministero della salute gestito da Hamas, più di 32.000 Palestinesi sono stati uccisi dalla campagna di rappresaglia da Israele, a seguito degli attacchi dell’7 ottobre da parte di Hamas.

Q: Cosa ha detto l’ONU su questa questione?

A: Il Segretario Generale dell’ONU, Antonio Guterres, ha espresso profonda preoccupazione sull’uso dell’AI nei bombardamenti. Ha sottolineato la necessità che l’AI venga utilizzata per il bene e non contribuisca all’escalation della guerra.

Q: Cosa dice l’IDF sull’uso dell’AI?

A: L’IDF nega l’uso dell’AI nell’identificazione dei bersagli e afferma che i loro sistemi informativi sono solo strumenti per gli analisti nel processo di identificazione dei bersagli. Affermano di seguire il diritto internazionale e le linee guida Israeli.

Fonti:
– +972 Magazine e Local Call (URL: domain.com)
– Assemblea Generale delle Nazioni Unite (URL: domain.com)

L’intelligenza artificiale è un’industria in rapida crescita con una vasta gamma di applicazioni in diversi settori. L’uso dell’AI nelle operazioni militari è diventato una preoccupazione significativa, in particolare con paesi come gli Stati Uniti e la Cina che la incorporano nelle loro strategie di difesa. I recenti rapporti sull’uso dell’AI da parte di Israele per identificare i bersagli dei bombardamenti a Gaza hanno sollevato seri quesiti etici e evidenziato i rischi potenziali associati all’uso militare dell’AI.

Il mercato della tecnologia AI nel settore militare dovrebbe crescere significativamente nei prossimi anni. Secondo un rapporto di MarketsandMarkets, il mercato globale dell’intelligenza artificiale nel settore militare dovrebbe raggiungere i 11,9 miliardi di dollari entro il 2026, con un tasso di crescita annuale composto (CAGR) del 14,5% durante il periodo previsto. L’adozione crescente dell’AI per varie applicazioni militari, come sistemi d’arma autonomi, sorveglianza, sistemi di comando e controllo e rilevamento delle minacce, dovrebbe guidare questa crescita.

Tuttavia, l’uso dell’AI in guerra non è privo di sfide e preoccupazioni. Un problema principale è il potenziale rischio per la sicurezza dei civili. I sistemi AI, sebbene progettati per migliorare l’accuratezza e l’efficienza, possono comunque commettere errori. Il caso del programma AI Lavender di Israele, che avrebbe preso di mira migliaia di Palestinesi, inclusi civili innocenti, solleva preoccupazioni sulle conseguenze non intenzionali del fare affidamento unicamente sulle decisioni algoritmiche in situazioni vita-morte.

Un’altra preoccupazione significativa è la questione dell’accountability. Con l’AI coinvolta nel processo decisionale, diventa difficile stabilire chi debba essere ritenuto responsabile delle conseguenze. L’uso di sistemi AI nelle operazioni militari solleva interrogativi sugli obblighi e sul rispetto delle leggi e delle normative internazionali. Le Nazioni Unite hanno sottolineato la necessità di supervisione e decisioni umane in materie che hanno impatti significativi sulle vite umane e hanno invitato all’uso responsabile dell’AI in guerra.

L’articolo fa riferimento a una risoluzione non vincolante adottata dall’Assemblea Generale delle Nazioni Unite per promuovere lo sviluppo di sistemi AI sicuri, protetti e affidabili. Tuttavia, la risoluzione non si occupa specificamente dell’uso militare dell’AI. Ciò sottolinea la necessità di ulteriori discussioni.

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact