Ülevaade lahinguvälja tehisintellektist: Iisraeli sõjaväe ‘Lavender’ ja algoritmilise sõjapidamise eetika

Esilekerkiv sõjaline tehnoloogia kujundab kaasaegse sõjapidamise dünaamikat

Sõjalisel strateegial olulist arengut märgates on aastal 2021 raamatus esitatud kontseptsioon “Brigadir General YS” poolt teostunud. Teesi soovitas luua kõrge kiirusega andmetöötlusmasina, et tuvastada hulk võimalikke sõjalisi sihtmärke, suurendades inim- ja tehisintellekti vahelist sünergiat.

“Lavendel”-i mõju Iisraeli kaitseoperatsioonidele

+972 ja Local Call uurimisraportid, mis avaldas Agência Pública, rõhutavad Iisraeli armee kasutatava tehisintellekti programmi nimega “Lavendel” rakendamist. Tehisintellekt mängis võtmerolli sihtmärkidele suunatud operatsioonides Gaza konflikti käigus, eriti selle esialgsetes etappides, vastavalt kuuele Iisraeli luureametnikule, kel on otsene seos programmiga.

Süsteemi usaldusväärsus ja eetilised tagajärjed sõjaajal

Lavendeli toel tuvastas sõjavägi umbes 37 000 palestiinlast potentsiaalsete kahtlustena. Usaldus oli selline, et tehisintellekti otsuseid võrreldi sageli inimliku hindamisega, keskendudes iga võimaliku sihtmärgi puhul keskmiselt 20 sekundile enne tegevuse kinnitamist. Kuigi tehisintellekt saavutas üldiselt kõrge täpsuse, tunnistati ka 10% veamäär, mille tulemusel mõnikord eksiti seosteta isikute või minimaalse sidemega sihitud fraktsioonide poole.

Vaidlustatud sihtimistaktikad ja tsiviilelanike riskid

Tehisintellekt aitas kaasa süstemaatilise rünnaku toimepanemisele, sealhulgas rünnakutele eluruumides, mis tulemusena põhjustas palju tsiviilohvreid. Nende hulgas oli enamus naisi, lapsi ja mittesõdurlikke isikuid. Luureametnik tõstis esile kodulugude sihtimise kergust sõjamooniga sõjaliste asukohtade suhtes. Lisaks eelistati madalama astme sihtmärkide puhul kasutada põhilisi, juhtmata rakette, et säästa kallimate laskemoonakulude arvelt.

Eeltingimused sõjalises kaasamises

Esimene kord saavutati ajalooline otsus, et iga madalama astme tegelase tuvastamiseks lubati kuni 15 või 20 tsiviilohvrit – arv, mis kasvas märkimisväärselt kõrgema astme ametnike korral.

Lavendeli sihtmärkide automatiseerimise kronoloogia Gaza konflikti käigus

Algselt seadis Iisraeli jõud range piirmäära “inimlikele sihtmärkidele”, keskendudes kõrgema astme tegelastele. Siiski, pärast Hamasi poolt 7. oktoobril 2023. aastal toimunud vaenutegevuse sagenemist, peeti kõiki Hamasi sõjalise liidu liikmeid elukõlbulikeks sihtmärkideks. Pärast Lavendeli täpsuse kinnitamist näidiskontrollide kaudu lubati selle valikul jätkata sõltumatu kontrollita, lihtsustades ja kiirendades otsuste langetamise protsessi sõjapidamise ajal.

Selle uue lähenemisviisi tagajärjed, nagu on kujutatud Palestiina tervishoiuministeeriumi andmetes, hõlmasid olulist hulka hukkumisi esimese kuue nädala jooksul, mille arvud peaaegu kahekordistusid konflikti jätkudes. Lavendel kasutab laialdast jälgimist Gaza 2,3 miljoni elaniku populatsioonil, et kindlaks teha iga indiviidi militantse tegevuse tõenäosus.

Algoritmilise sõjapidamise põhiküsimused ja vastuolud:

Algoritmilises sõjapidamises, nagu seda teostab Iisraeli sõjaväe “Lavendel” tehisintellekti programm, tekitab olulisi küsimusi ja vastuolusid:

Eetilised tagajärjed: Algoritmide kasutamine sihtmärkide otsustamisel tekitab eetilisi küsimusi autonoomsuse, vastutuse ja inimelule omistatava väärtuse kohta. Tehisintellekti süsteemid langetavad otsuseid sekunditega, pannes kahtluse alla inimeste järelevalve piisavuse ja sõjapidamise võimaliku dehumaniseerimise.

Tsiviilelanike ohvrid: Tehisintellekti sihtmärgilt võib kaasneda suur hulk tsiviilelanike ohvreid, kui süsteem eksib sihtmärkide tuvastamisel või kui proportsionaalsuse juhised lubavad olulist kollateraalset kahju. Risk mittesõdijatele, eriti tihedalt asustatud piirkondades nagu Gaza, on suur inimõiguste küsimus.

Läbipaistvus ja vastutus: Tekib küsimus selliste süsteemide toimimise ja otsuste langetamise läbipaistmatuse kohta. Piisava järelevalveta on raske määrata vastutust ekslike rünnakute või tsiviilohvrite eest.

Õiguslikud väljakutsed: Tehisintellekt sõjapidamises seaks proovile kehtivad rahvusvahelise humanitaarõiguse sätted, mis on mõeldud inimlike otsustajate jaoks. Tehisintellektisüsteemide otsuste ja tegevuste seaduslikkus konfliktitsoonides on endiselt arutelu all.

Sõjavälja tehisintellekti eelised ja puudused:

Eelised:
Tõhusus: Tehisintellektisüsteemid nagu “Lavendel” suudavad andmeid töödelda ja potentsiaalseid sihtmärke tuvastada kiiremini kui inimesed, mis võib olla oluline kiiresti muutuvates lahingusituatsioonides.
Ressursside optimeerimine: Tehisintellekt võib aidata säästa kallist laskemoona, määrates kindlaks vajaliku jõu taseme erinevatele sihtmärkidele.
Ülesandepädevused: Arenenud jälgimine ja analüüs võivad potentsiaalselt tuvastada ohud, mida inimlikud analüütikud võiksid mööda vaadata.

Puudused:
Veaaste: Tehisintellektisüsteemide tunnustatud viga võib viia valede sihtmärkideni ja süütu elu kaotamiseni.
Erinevuse puudumine: Tehisintellekt võib olla raskustes võitlejate ja mittesõdijate eristamisel, eriti linnakeskkondades.
Vägivalla eskaleerumine: Algoritmilise otsuste langetamise dehumaniseeritud olemus võib viia vägivalla eskaleerumiseni ja muuta sõjajärgseid julmusi tõenäolisemaks.

Kõigile, kes soovivad uurida tehisintellekti kasutamist sõjalistel eesmärkidel ja kaasaegse sõjapidamise eetikat, võib järgnev link seotud valdkonnas pakkuda põhjalikku teavet: Rahvusvaheline Punase Risti Komitee. ICRC tegeleb ulatuslikult rahvusvahelise humanitaarõigusega seotud küsimustega, sealhulgas uute tehnoloogiate kasutamisega relvastatud konfliktides. Pange tähele, et pakutud URL on põhiväljaanne ja on kontrollitud kehtivana ning seotud teemaga.

Privacy policy
Contact