Tehisintellekt võtab lennu ajaloolises õhuvõitlustreeningus.

Revolutionaarne AI piloot tõestab oma võimekust Edwardsi õhujõukonna baasis

Möödunud aastal saavutas Edwardsi õhujõukonna baasi kohal enneolematu sündmus, kui AI-toega hävituslennuk osales esmakordselt autonoomses keerulises õhulahingus. Septembris 2023 kasutati selleks väga modifitseeritud F-16-tüüpi lennukit X-62A VISTA, mis on varustatud erinevate lennukite imiteerimiseks simuleerimisotstarbel.

X-62A, mis on oluline pilootide koolitusprotsessis, varustati erilise tarkvaraga DARPA õhulahinguevolutsiooni (ACE) programmi raames, võimaldades sellel autonoomselt läbi viia õhuvõitlusmanöövreid. Ohutuslennuk jäi katsete ajal pardale ettevaatusabinõuna, märkimisväärseks edasiminekuks varasemate autonoomsete lendude suhtes, kus ei tehtud õhus-õhus võitlusstsenaariume.

Eesrindlik iseõppiv AI tõuseb taevasse

Neli aastat on innovaatiline ACE projekt surunud õhuvõitluse piire, võimaldades AI-l sooritada arvukalt simuleeritud manöövreid ning tegelikult õppida õhuvõitluskunsti. See „õpi tehes“ lähenemine hõlmas AI premeerimist efektiivsete manöövrite eest, soodustades pidevat paranemist ilma otseste sisenditeta tegelikest võitlusnarratiividest.

Kuigi arvutisimulatsioonid viitasid AI üleolekule inimvaenlaste üle, pidid insenerid programmeerima F-16 struktuurilised piirangud tegelike lendukatsete jaoks. Nende elusate võitlusskeemide tulemused, kus X-62 lendas kiirustel kuni Mach 2 ning lähenes mehitatud F-16 lennukitele vahemaadel alla 2000 jala, on endiselt salajased.

Mehitamata ja mehitatud lennukid valitsevad taevas koos

Tulevikku vaadates valmistub USA õhujõud üle tuhande mehitamata koostöölennuki kasutuselevõtuks, erakordse eelarvega 8,9 miljardit dollarit järgmise viie aasta jooksul selle algatuse jaoks. Lisaks käivad autonoomsed lendkatsetused ka Floridas, kus F-16 lennukid on kohandatud käed-vabad toiminguteks VENOM programmi raames.

Selgel näiteks usaldusest selle järgmise põlvkonna tehnoloogia vastu, on oodata, et silmapaistvad isikud nagu õhujõudude sekretär Frank Kendall astuvad ühele neist „robot-F-16“ lendudest, et isiklikult hinnata süsteemi edenemist.

Küberjulgeoleku mured edusammude taustal

Ent nende tehnoloogiate arenedes tekib mure AI süsteemide potentsiaalse haavatavuse pärast andmete rikkumisele. Sõjaväe tarkvaraspetsialistid tõid esile riskid, mida kätkeb endas vastaste võimalik „mürgitamine“ AI koolitamiseks kasutatud andmetega, rõhutades valvsuse vajadust tehnoloogilise progressi näol.

Peamised küsimused ja vastused:

Mis oli AI-toega hävituslennuki testi eesmärk Edwardsi õhujõukonna baasis?
Eesmärk oli demonstreerida AI võimet iseseisvalt osaleda keerulistes õhuvõitlusmanöövrites DARPA õhulahinguevolutsiooni (ACE) programmi raames.

Miks on X-62A VISTA oluline sõjalise lennunduse valdkonnas?
X-62A VISTA on oluline, kuna see toimib mitmeotstarbelise lennukina, mis suudab jäljendada erinevaid hävituslennukeid koolituse ja nüüd, AI integreerimisega, potentsiaalselt muuta tuleviku õhuvõitlust.

Mis on AI tehnoloogiatega sõjaväeliste rakenduste seotud võimalikud riskid?
Riskid hõlmavad vastaste võimalust rikkuda andmed, mida kasutatakse AI süsteemide koolitamiseks (“andmete mürgitamine”), mis võib viia ebatäpsete või ohustatud AI käitumiseni. Lisaks tekivad küberrünnakuohud, kuna AI otsustusprotsesse peab saama häirimatult reguleerida, et vältida vaenulikku sekkumist.

Millised on autonoomsete AI-juhitavate hävituslennukite eelised ja puudused?

Eelised:
Parandatud võimed: AI suudab töödelda tohutul hulgal andmeid kiiremini kui inimesed, pakkudes potentsiaalselt paremat otsuste tegemise kiirust ja täpsust.
Jõu Korrutaja: AI juhitud lennukid saavad täiendada inimpiloteid, suurendades operatiivseid võimeid ilma inimelu ohtu seadmata.
Laiendatud soorituspiirid: AI juhitud lennukid võivad suruda soorituse piire kaugemale kui inimpiloodid, kuna puuduvad füüsilised piirangud nagu g-koormusest tingitud teadvusekaotus.
Kulutõhus koolitus: Simulatsioonid, kasutades AI-d, võivad märkimisväärselt vähendada elava koolitusega seotud kulusid.

Puudused:
Küberrünnakuohud: AI süsteemid võivad olla vastuvõetavad häkkimisele või andmete rikkumisele.
Eetilised ja õiguslikud küsimused: Autonoomsete relvasüsteemide kasutuselevõtt tõstatab eetilisi küsimusi otsustustegemise kohta lahingutingimustes.
Usaldusväärsuse mured: AI süsteemid võivad silmitsi seista usaldusväärsuse ja ettenähtavuse probleemidega, eriti keerukates, ettearvamatutes olukordades, mis moodustavad õhulahingu.
Sõltuvus tehnoloogiast: Suurenenud sõltuvus AI-st võib vähendada traditsiooniliselt olulist rolli mänginud inimoskuse ja intuitsiooni rolli võitluses.

Põhilised väljakutsed ja vastuolud:
Üks peamisi vastuolusid keerleb ümber AI eetiliste tagajärgede võitlevaroolides, sealhulgas vastutuse küsimusi vigade või autonoomsete süsteemide ettenägematute tegude korral. Lisaks käivad arutelud inimkontrolli ja autonoomia õige tasakaalu üle sõjapidamises ning debatid rahvusvahelistest normidest ja määrustest autonoomsete relvasüsteemide jaoks.

Lisateabe saamiseks sarnastest arengutest tehisintellekti valdkonnas sõjalises valdkonnas võiksite külastada Kaitse Täiustatud Uurimisprojektide Ameti (DARPA) veebisaiti või Ameerika Ühendriikide Õhujõudude ametlikku lehte. Need lingid annavad teavet kaitsetehnoloogiaga seotud viimaste programmide ja innovatsioonide kohta.

Privacy policy
Contact