Dipartimento della Difesa degli Stati Uniti Accelerata Integrazione dell’Intelligenza Artificiale nella Guerra Moderna

L’Intelligenza Artificiale Sale nella Strategia di Difesa

L’avanzamento dell’intelligenza artificiale (AI) nel settore della difesa ha compiuto un significativo balzo in avanti. Il Dipartimento della Difesa degli Stati Uniti, a lungo sostenitore di tecnologie d’avanguardia, ha integrato l’AI in il 70% dei progetti della DARPA (Agenzia per i Progetti di Ricerca Avanzata per la Difesa) entro marzo 2024. L’obiettivo va oltre il potenziamento delle operazioni con i droni e la presa di decisioni nel combattimento, spostandosi verso lo sviluppo potenziale di sistemi d’arma completamente automatizzati con contributi da parte di giganti tecnologici come Microsoft, Google, OpenAI e Anthropic.

Il Portafoglio Ambizioso di AI del Pentagono

Nel perseguire la supremazia militare, il Pentagono ha reso noto un vasto portafoglio di 800 progetti legati all’AI entro la fine del 2023. Secondo l’Istituto Brookings, tra agosto 2022 e agosto 2023, il Dipartimento della Difesa ha partecipato a 657 contratti legati all’AI, evidenziando un aumento delle attività che sfruttano l’AI. Mentre altri settori federali stanno investendo anche in AI per varie applicazioni, tra cui agricoltura, produzione e istruzione, il dipartimento della difesa si è distinto, rappresentando il 90% del valore totale dei contratti, con un significativo aumento dai $269 milioni ai $4.3 miliardi nei periodi osservati.

Obiettivi Strategici e Questioni Etiche

Mentre gli interessi militari nei confronti dell’AI si approfondiscono, la vera natura e portata di questi progetti legati all’AI rimangono avvolte nell’ambiguità. AltI ufficiali della difesa parlano del ruolo dell’AI nell’accelerare le decisioni dei comandanti e nel migliorarne la qualità, tuttavia i dettagli spesso sono oscurati. L’esplorazione del Pentagono in campi che vanno dall’autonomia dei caccia F-16 alla presa di decisioni militari ad alto rischio solleva questioni sulle implicazioni etiche della tecnologia capace di escalation dei conflitti, inclusa la preoccupante possibilità di macchine che selezionano bersagli senza intervento umano.

Rilevanti prove, come l’interfaccia AI-umana collaborativa nei caccia F-16, sono contestualizzate da studi condotti da università di spicco che utilizzano modelli AI come il GPT-3.5 e GPT-4 di OpenAI. I risultati delle indagini hanno evidenziato la propensione dell’AI per l’escalation aggressiva, scegliendo persino opzioni nucleari nelle simulazioni. Di fronte a queste scoperte, è utile considerare che i modelli AI progettati per le capacità linguistiche, come ChatGPT, potrebbero non essere rappresentativi dei futuri sistemi d’arma AI con un approccio forse più misurato alle decisioni belliche.

Mentre gli Stati Uniti continuano a rafforzare la propria difesa con l’AI, l’equilibrio tra l’evoluzione tecnologica e il peso dell’etica militare rimane un aspetto delicato e cruciale per la sicurezza globale.

The source of the article is from the blog lokale-komercyjne.pl

Privacy policy
Contact