Ohtude AI poolt juhitud autonoomsete relvade oht ja “Flash-sõdade” väljavaade

Tehisintellekti roll kaasaegses sõjapidamises seab uusi ohte

Sõjapidamise muutuvas maastikul on isejuhtivate tehnoloogiate ja tehisintellekti (AI) poolt toetatud relvasüsteemid globaalsele julgeolekule kiireks mureks. Prof. Karl Hans Bläsius, pensionile läinud arvutiteaduse professor, kelle erialaks on tehisintellekt, tõstab esile mureküsimusi selliste tehnoloogiate potentsiaali suhtes põhjustada kiiret eskaleerumistsüklit inimkontrolli välistes olukordades.

Prof. Bläsius rõhutab autonoomia tehnoloogias olevaid eeliseid, näiteks enesejuhtivate autode ja ohtlikes keskkondades töötavate robotite potentsiaali. Siiski rõhutab ta autonoomselt toimivate hävitamisele suunatud relvade seotud tõsiseid riske. Ta väidab, et tapmise automatiseerimine on ebasoovitav ning hoiatab eriti ohtlike edusammude eest, sh tuumarelvi puudutavate edusammude eest.

Tegutsedes paralleelselt finantsmaailma kõrge sagedusega kauplemisalgoritmidega, mis on põhjustanud nn “flash crash’e” ehk turu äkilisi kokkukukkumisi, hoiatab prof. Bläsius, et AI-ga juhitavad relvad võiksid samamoodi osaleda ettenägematutes interaktsioonides, põhjustades kiireid ja kontrollimatuid `flash-sõdasid`. Need stsenaariumid kujutavad endast tulevikku, kus automatiseeritud süsteemid osalevad sõjategevuses kiirustes, mis ületavad inimvõimet vastu seista, luues agressiooni ja vastuagressiooni spiraali.

Rõhutades AI olemasolevat kasutamist militaarsete sihtmärkide kindlaksmääramisel, nagu Iisraeli kasutus Hamasega võitlejate ja nende asukohtade tuvastamiseks, väljendab prof. Bläsius muret inimliku kontrolli puudumise üle sellistes olukordades, mis võivad lõppkokkuvõttes viia masinate otsustamiseni, kes elab ja kes sureb, kaasa arvatud tsiviilisikud.

Bläsius lõpetab, rõhutades vajadust AI järele kaasaegsete sõjaliste operatsioonide tohutu keerukuse ja ajalise surve juhtimisel. Siiski tunnistab ta nende arengute probleemset olemust, arvestades nende potentsiaali mööda minna inimlikust otsustusvõimest ja sellega kaasnevaid eetilisi tähendusi.

AI-ga juhitavate autonoomsete relvade väljakutsed ja kontroversid

AI-ga juhitavad autonoomsed relvad toovad kaasa keerulise küsimuste ja väljakutsete komplekti, mis on tõstnud vastuolusid mitmetes sektorites, sealhulgas militaarses, poliitilises, eetilises ja õigussüsteemis. Siin on mõned peamised väljakutsed ja vastuolud:

Vastutus: Üks peamisi küsimusi autonoomsete relvasüsteemide puhul on see, kes kannab vastutust juhul, kui toimub tahtmatu hävitamine või ebaõiglane surm. Ilma selgete suunisteta võib olla keeruline määrata vastutavust AI poolt tehtavate tegevuste eest.

Eetilised kaalutlused: AI kasutamine sõjapidamises tekitab eetilisi küsimusi inimelude väärtuse suhtes. Masin ei suuda hinnata ega väärtustada inimelu, tõstes muret nende kasutamise osas sõjapidamises, mis võib tulemuseks olla suurem kalduvus konflikti sattuda ja rohkem inimelude kaotusi.

Polüütilise otsuste tegemise õõnestamine: Traditsiooniliselt on sõja alustamise otsus poliitiline, tehtud valitud esindajate või juhtide poolt. AI-ga juhitavad süsteemid, mis võiksid reageerida ohtudele millisekunditega, tekitavad hirmu, et poliitiline protsess võiks mööda minna ning sõda võiks alata ilma nõuetekohase demokraatliku protsessita.

Militaarne eskaleerumine: Autonoomsete relvade kasutuselevõtt võiks kaasa tuua relvastumisvõidujooksu, kuna riigid püüavad mitte jääda teiste võimetele alla. See võiks põhjustada suuremat militaarset pinget ja ebastabiilsust globaalselt.

Rikete risk: AI-ga juhitud süsteemid on vastuvõtlikud tehnilistele riketele ja talitlushäiretele. Tarkvaravea või häkkerirünnaku korral võiks autonoomsed relvad asuda soovimatutesse või ettenägematutesse käitumistesse, mis võiksid eskaleeruda konfliktiks.

Eelised ja puudused

Eelised:

– Suurenenud efektiivsus ja kiirus reageerimisel ohtudele
– Vähendatud risk inimlike sõduritele lahingolukordades
– Täpsus sihtmärkide tabamisel, mis võiks vähendada kõrvalkollateraalset kahju teatud kontekstides
– Töötamine keskkondades, mis on inimestele liiga ohtlikud

Puudused:

– Vastutuse kaotamise potentsiaal ja inimliku järelevalve nõrgestamine
– Eetilised küsimused inimelude väärtuse ja otsustusprotsesside kohta surmava jõu kasutamisel
– Rikete võimalus või vastase poolt kompromiteerimine
– Eskaleerumise ja militaarkonfliktide (flash-sõjad) leviku risk
– Dilemma AI programmeerimisel rahvusvahelise humanitaarõigusega vastavusse viimiseks

Põhiküsimused:

1. Kes vastutab autonoomse relvasüsteemi poolt tehtud tegevuste eest?
2. Kuidas saaks AI-ga juhitud sõjapidamine vastavusse rahvusvahelise humanitaarõigusega?
3. Millised mehhanismid võiksid tagada piisava inimliku järelevalve autonoomsete relvade üle?
4. Kuidas saaks rahvusvaheline kogukond ära hoida AI-ga juhitavate autonoomsete relvade levikut ja eskaleerumist?

Kuigi arutelu AI-ga juhitavate autonoomsete relvade üle jätkub, on ÜRO olnud platvormiks, kus neid väljakutseid arutatakse, otsides globaalset konsensust selliste relvastuste reguleerimise ja kontrolli üle.

Üldiselt, kuigi AI rakendamises militaaroperatsioonides on võimalikke eeliseid, rõhutavad puudused ja riskid hoolikat kaalutlemist ning reguleerimist rahvusvahelisel tasandil. “Flash-sõjad” perspektiivina meenutavad võimalikud tagajärjed pealetungi rakendamisele AI kasutamisel sõjapidamises, ilma vajalike kontroll- ja tasakaalustusvahenditeta.

Privacy policy
Contact