Intelligentsusest juhitud autonoomsete relvade oht ja “Flash Wars” väljavaade

Kunstliku intelligentsuse roll kaasaegses sõjapidamises tekitab uusi ohtusid

Sõjapidamise arenevas maailmas on autonoomsed tehisintellekti (AI) toega relvasüsteemid globaalse julgeoleku jaoks tõsine murekoht. Arvutiteaduse professor Karl Hans Bläsius, kes on spetsialiseerunud tehisintellektile ning on nüüdseks pensionil, hoiatab selliste tehnoloogiate võimaliku kiire eskaleerumistsükli eest inimkontrolli piiridest väljapoole.

Prof. Bläsius rõhutab autonoomia tehnoloogias olevaid eeliseid, näiteks isejuhtivate autode ja robotite potentsiaali ohtlikes keskkondades. Siiski rõhutab ta sügavalt autonoomselt toimivate hävitustoimingute relvade tekitatavaid tõsiseid ohte. Ta väidab, et tapmise automatiseerimine pole soovitav ning hoiatab eriti ohtlike edusammude eest, sealhulgas neid, mis on seotud tuumarelvadega.

Tuues paralleele finantsmaailma kõrgsagedusliku kauplemisalgoritmide surveolukordadega, mis on põhjustanud nn “välgukrahhid”, hoiatab prof. Bläsius, et AI-ga juhitud relvad võivad samamoodi osaleda ettenägematutes koostoimetes, mis võivad kaasa tuua kiired ja kontrollimatud “välgusõjad”. Need stsenaariumid kujutavad tulevikku, kus automatiseeritud süsteemid osalevad sõjategevuses kiirustel, mis ületavad inimvõimeid vastutegevuseks, luues agressiooni ja vastuagressiooni spiraalne efekti.

Rõhutades AI kasutamist sõjalistes sihtmärkide kindlaksmääramises, näiteks Iisraeli kasutamist Hamas võitlejate ja nende asukohtade tuvastamiseks, väljendab prof. Bläsius muret inimkontrolli puudumise üle sellistes olukordades, mis võivad viia masinateni otsustada, kes elab ja kes sureb, sh tsiviilisikud.

Bläsius lõpetab, käsitledes vajadust AI järele kaasaegsete sõjaliste operatsioonide tohutust keerukusest ja ajalise surve juhtimisest. Siiski tunnistab ta nende arengute probleemset laadi, olles teadlik nende potentsiaalist mööda minna inimotsusest ja selle eetilistest tagajärgedest.

Autonoomsete AI-ga juhitud relvade väljakutsed ja kontroversid

AI-ga juhitud autonoomsed relvad esitavad hulga keerulisi küsimusi ja väljakutseid, mis on tekitanud poleemikat mitmes valdkonnas, sealhulgas sõjalises, poliitilises, eetilises ja õigusvaldkonnas. Siin on mõned peamised väljakutsed ja kontroversid:

Vastutus: Üks põhilisi küsimusi autonoomsete relvasüsteemidega on, kes vastutab juhul, kui tulemuseks on tahtmatu hävitamine või ebaõiglane surm. Selgete suuniste puudumisel võib olla väljakutseks vastutuse määramine AI poolt tehtud tegevuste eest.

Eetilised kaalutlused: AI kasutamine sõjapidamisel tekitab eetilisi küsimusi inimelu alahindamise kohta. Masin ei saa ega oska hinnata inimelu, tekitades muret nende rakendamises sõjategevuses, mille tulemusel võib suuremalt kalduda konflikti suunas ja rohkem inimelude kaotust.

Poliitilise otsustustegemise erodeerumine: Traditsiooniliselt on sõjapidamise otsus poliitiline, tehtud valitud esindajate või juhtide poolt. AI-ga juhitud süsteemidega, mis võiksid reageerida ohtudele millisekundite jooksul, tekib kartus, et poliitiline protsess võiks olla kõrvale jäetud ning sõdasid võiksid alustada demokraatliku protsessi nõueteta.

Sõjaline eskalatsioon: Autonoomsete relvade kasutuselevõtt võib viia relvastumisvõistluseni, mida riigid püüavad teiste võimetega mitte alla jääda. See võiks viia suurenenud sõjaliste pingeteni ja ebastabiilsuseni kogu maailmas.

Rikete risk: AI juhitud süsteemid on vastuvõtlikud tehnilistele riketele ja talitlushäiretele. Tarkvara tõrke või häkkeriründe korral võiksid autonoomsed relvad teha soovimatuid või ettearvamatuid tegevusi, mis võivad eskaleeruda konfliktiks.

Eelised ja puudused

Eelised:

– Suurenenud efektiivsus ja kiirus reageerimisel ohtudele
– Väiksem risk inimsõduritele relvaolukordades
– Sihtimise täpsus, mis võib vähendada kõrvalkollateraalkahjustusi teatud kontekstides
– Tegutsemine keskkondades, mis on inimestele liiga ohtlikud

Puudused:

– Vastutuse kadumise potentsiaal ja inimjärelevalve vähenemine
– Eetilised küsimused inimelu väärtuse ja otsuste langetamise osas surmava jõu kasutamisel
– Võimalus riketele või vastaste poolt mõjutamisele lõksu sattuda
– Eskalatsiooni ja sõjaliste konfliktide leviku risk (välgusõjad)
– Dilemma AI programmeerimisel rahvusvahelise humanitaarkokkuleppe normide kohaselt

Põhiküsimused:

1. Kes vastutab autonoomsete relvasüsteemide tehtud tegevuste eest?
2. Kuidas saaks AI-ga juhitud sõjapidamine vastata rahvusvahelisele humanitaarõigusele?
3. Milliseid mehhanisme saaks rakendada, et tagada piisav inimjärelevalve autonoomsete relvade üle?
4. Kuidas saaks rahvusvaheline kogukond ära hoida AI-ga juhitud autonoomsete relvade leviku ja eskaleerumise?

Kui arutelu AI-ga juhitud autonoomsete relvade üle jätkub, siis ÜRO on platvorm, kus neid väljakutseid arutatakse, otsides globaalset konsensust selliste relvade reguleerimise ja kontrolli osas.

Kokkuvõttes, kuigi sõjaliste operatsioonide jaoks AI rakendamises on potentsiaalseid eeliseid, toovad puudused ja riskid esile vajaduse hoolika kaalumise ning regulatsiooni järele rahvusvahelisel tasandil. “Välgusõdade” väljavaade toimib märguandena võimalike tagajärgede kohta pealetungiva AI rakendamise puhul sõjapidamises ilma vajalike kontroll- ja tasakaalustusmeetmeteta.

Privacy policy
Contact