Segretario dell’Aeronautica degli Stati Uniti volerà su caccia F-16 pilotato dall’IA

L’intelligenza artificiale avanzata sta prendendo il volo mentre la Forza Aerea degli Stati Uniti sperimenta il volo autonomo in un jet F-16 modificato. Frank Kendall, Segretario della Forza Aerea, ha annunciato i suoi piani di volare in un F-16 pilotato dall’intelligenza artificiale. Durante un’audizione al Senato, ha dichiarato la sua fiducia che la tecnologia si sia evoluta al punto in cui il ruolo del pilota potrebbe limitarsi solo ad osservare.

L’aereo innovativo in questione è l’X-62A VISTA, una piattaforma di prova che incorpora algoritmi di intelligenza artificiale dai programmi Autonomous Air Combat Operations (AACO) e Air Combat Evolution (ACE), facilitati dal Laboratorio di Ricerca della Forza Aerea e da DARPA, il braccio di ricerca del Pentagono.

Questi programmi mirano a sviluppare l’intelligenza artificiale in grado di combattere nell’aria oltre la portata visiva, un aspetto sfidante della guerra aerea. Le loro capacità sono state messe in mostra durante la competizione “Alphadogfight” del 2020, in cui un algoritmo di intelligenza artificiale sviluppato da Heron Systems ha sconfitto in modo convincente un pilota esperto di F-16 in un combattimento aereo simulato.

Dopo aver condotto numerose prove di volo nel 2022, utilizzando questi sistemi di intelligenza artificiale per impegnarsi con successo nel combattimento oltre la portata visiva, la fase successiva è stata testare l’intelligenza artificiale contro un F-16 pilotato da un essere umano in condizioni reali. Di recente, una serie di voli intorno alla Base Aerea di Edwards in California ha visto l’X-62A impegnato in duelli aerei a distanza ravvicinata. Secondo la Forza Aerea degli Stati Uniti e DARPA, le prove sono state condotte in sicurezza, con due piloti a bordo per supervisionare il sistema.

Gli esercizi di prova sono iniziati con l’intelligenza artificiale pilotando il jet in una postura difensiva prima di progredire in manovre più offensive. Per quanto riguarda quale pilota si è comportato meglio, l’intelligenza artificiale o l’essere umano, i dettagli non sono stati divulgati. L’obiettivo principale, come spiegato dagli ufficiali del programma, era valutare le capacità dell’intelligenza artificiale in scenari di combattimento critici e spingere lo sviluppo di interfacce efficaci uomo-macchina per il combattimento aereo.

Domande e Risposte Chiave:

1. Quali implicazioni ha la tecnologia pilotata da intelligenza artificiale per il futuro degli aerei da combattimento?
La tecnologia pilotata da intelligenza artificiale suggerisce uno spostamento verso sistemi più autonomi negli aerei da combattimento, riducendo potenzialmente il rischio per i piloti umani e sfruttando le capacità decisionali più rapide e precise dell’intelligenza artificiale in situazioni di combattimento ad alto stress.

2. Come l’uso dell’intelligenza artificiale negli aerei da combattimento cambia la formazione dei piloti e il ruolo dei piloti umani?
L’integrazione dell’intelligenza artificiale potrebbe ridefinire la formazione dei piloti, concentrandosi più sui ruoli di supervisione e decisione piuttosto che sull’atto fisico di pilotare l’aeromobile. Il ruolo del pilota umano potrebbe evolversi per supervisionare le operazioni dell’intelligenza artificiale, gestire decisioni strategiche e intervenire quando necessario.

3. Esistono considerazioni etiche associate all’uso dell’intelligenza artificiale in situazioni di combattimento letale?
Sì, il dispiegamento dell’intelligenza artificiale in scenari di combattimento letale solleva questioni etiche riguardanti la decisione delle macchine in situazioni di vita o di morte, la responsabilità delle azioni dell’intelligenza artificiale e il potenziale per l’abuso di sistemi d’arma autonomi.

Sfide o Controversie:

Autonomia vs. Controllo: Bilanciare l’autonomia dell’intelligenza artificiale con la supervisione umana per garantire decisioni etiche e strategiche rimane una sfida.
Affidabilità e Sicurezza: La necessità di dimostrare che i sistemi pilotati dall’intelligenza artificiale sono affidabili e possono gestire situazioni impreviste senza mettere a rischio vite umane.
Sfide Tecnologiche: Lo sviluppo di intelligenza artificiale in grado di adattarsi all’ambiente dinamico e complesso del combattimento aereo pone significative sfide tecnologiche.
Sicurezza: Proteggere i sistemi di intelligenza artificiale dagli hacker e da altre violazioni della sicurezza è fondamentale, specialmente poiché gli aerei militari sono obiettivi di alto valore per gli avversari.

Vantaggi:

Riduzione del Rischio per i Piloti: L’intelligenza artificiale potrebbe assumere missioni pericolose, riducendo il rischio per i piloti umani.
Capacità Potenziate: L’intelligenza artificiale potrebbe elaborare informazioni e reagire più velocemente rispetto agli esseri umani, aumentando potenzialmente l’efficacia delle missioni.
Disponibilità Operativa: Gli aerei pilotati dall’intelligenza artificiale potrebbero essere impiegati in situazioni in cui il logoramento umano o la logistica limiterebbero gli aeromobili pilotati dall’uomo.

Svantaggi:

Complessità del Giudizio Umano: L’intelligenza artificiale potrebbe mancare della decisione e della capacità di adattamento sfumate di un pilota umano esperto.
Dependenza Tecnologica: Una forte dipendenza dalla tecnologia potrebbe creare sovrafiducia o ridurre le competenze umane.
Questioni Morali ed Etiche: La delega della decisione sulla forza letale all’intelligenza artificiale solleva preoccupazioni morali ed etiche.

Per ulteriori informazioni sulla Forza Aerea degli Stati Uniti e sulle tecnologie correlate, qui c’è un link pertinente: United States Air Force.

Per ulteriori informazioni su DARPA e i suoi programmi di ricerca, qui c’è un link pertinente: Defense Advanced Research Projects Agency (DARPA).

The source of the article is from the blog macholevante.com

Privacy policy
Contact