Uus AI süsteem muudab mängureegleid Eesti kaitseväes

Viimaste uuringute üllatusliku paljastuse kohaselt on valgustatud tehisintellekti põhise programmi “Lavender” kasutamist Iisraeli armee poolt. See programm, mis avalikustati esmakordselt, mängis keskset rolli palestiinlaste laialdases pommitamises Gaza konflikti varajastes staadiumites.

“Lavender” süsteemi, mis on välja töötatud Iisraeli sõjaväe poolt, on kavandatud potentsiaalsete sihtmärkide tuvastamiseks sõjalisteks löökideks. Programm märgistab kõik kahtlustatavad Hamasi ja Palestiina Islami Džihaadi (PID) operaatorid potentsiaalseteks pommitamisi, ka sealhulgas madalama astme isikud. Süsteem suudab kiiresti töödelda suures koguses andmeid, et genereerida tuhandeid võimalikke sihtmärke.

Sõja algperioodil toetus Iisraeli armee “Lavenderile”, põhinedes peaaegu täielikult nende otsustusprotsessi masina väljunditele. Üllatavalt ei kontrollinud sõjaväeohvitserid peaaegu mitte kunagi AI programmi tehtud valikuid, hoolimata asjaolust, et nad tegid ainult minimaalselt aega iga sihtmärgi autoriseerimiseks enne pommitamistet. Lavender süsteem, hoolimata teadaolevatest vigadest, märgistas isikud lahtise seoseta või üldse mitte sõjaliste gruppidega.

Veelgi häirivam on armee teadlik sihtmärkide valimine individuaalsetele kodanikele nende kodudes, sageli öösel, kui nende pered olid kohal. See strateegiline lähenemine põhines usul, et isikute asukohtadest nende erakorterites on kergem avastada. Muid automatiseeritud süsteeme, nagu “Kus on Issi?”, kasutati väljavalitud isikute jälgimiseks ja pommitamiste korraldamiseks, kui nad olid oma perekondade kodudes.

Nende labaste pommituste tulemused on hävitavad. Tuhandeid palestiinlasi, sealhulgas naisi, lapsi ja mittevõitlevaid inimesi, on kaotanud elu AI programmi otsuste tõttu. On selge, et armee prioriteet oli väidetavate operaatorite sihtmärgistamine, isegi kui nad asusid mitte-sõjalistes kohtades, mitte keskendudes ainult sõjalistele hoonetele või tegevustele.

Lavenderi masin töötab erinevalt teisest AI süsteemist nimega “Evangeline.” Kuigi Evangeline märgistab hooned ja struktuurid, kust armee väidab moljueeruva priiginakavatsemise, märgistab Lavender konkreetseid isikuid, pannes nad tapalahingloa nimekirja. See tähistus on määrava tähtsusega selle süsteemi toimimise ja tuvastatud sihtmärkide mõistmisel.

Lisaks, kui Lavenderi poolt märgistatud väidetavaid noormoljueerijaid sihtides, eelistas armee kasutada juhitud pomme vastupidiselt nn “rumalatele” pommidele. Need pommid suudavad hävitada terveid hooneid koos nende asukate ja inimestega, mis viib oluliste ohvriterohkete nõudmiseni. Selle valiku taga olev põhjendus oli hoida kokku kalleid “nutikaid” täppispomme tähtsamate sihtmärkide jaoks, mis oli strateegia põhine kulutõhususel ja nende teatud relvade nappusel.

Üllatuseks lubas armee sõja alguses kuni 15-20 tsiviilelaniku tapmist iga Lavenderi poolt tuvastatud noore Hamasi opreerija kohta. See tähistas lahkumine eelnevast sõjaväe seisukohast, kus püüti minimeerida kahjusid tsiviilelanikele noorte rühmituste tapmisel. Lisaks, kõrgemate Hamasi ametnike puhul, autoriseeriti ühe sõjapealiku tapmiseks enam kui 100 tsiviilelaniku tapmist.

##KKK

**Mis on Lavender?**
Lavender on Iisraeli armee poolt kasutatav tehisintellekt-põhine programm, mis tuvastab potentsiaalseid sihtmärke sõjalisteks löökideks. Programm märgistab kahtlustatavad Hamasi ja Palestiina Islami Džihaadi (PID) operaatorid, sealhulgas madalama astme isikud.

**Kuidas Lavender töötab?**
Lavender töötleb kiiresti suures koguses andmeid, et genereerida potentsiaalseid sihtmärke. See määrab isikud potentsiaalseteks pommitamisobjektideks nende kahtlustatavate sidemete tõttu sõjaliste gruppidega.

**Milline on Lavenderi mõju sõjalistele operatsioonidele?**
Lavender mängis keskset rolli palestiinlaste enneolematute pommitamiste ajal, eriti konflikti varajastes staadiumites. Programmi mõju sõjalise otsustusprotsessile oli nii oluline, et AI masina väljundid olid koheldud, nagu oleks tegemist inimotsuste langetamisega.

**Millised on tehisintellekti kasutamisega seotud eetilised mured Lavenderi puhul?**
Lavenderi kasutamisel tekivad eetilised mured, kuna see on viinud isikute mitteni märgistamiseni, mis on kaasa toonud tuhandete palestiinlaste, sealhulgas naiste, laste ja mittesõdivate isikute kaotuse. On muresid selle programmi vigade ja selle mõju pärast tsiviilkahjudele.

**Kuidas kasutatakse Lavenderiga seotud juhitud pomme?**
Lavender tuvastab väidetavad noored moljueerijad ja armee eelistab kasutada n-ö juhitavaid pomme, mida tuntakse ka kui “rumalaid” pomme. Need pommid suudavad hävitada terveid hooneid ja põhjustada olulisi ohvreid. See on kuluefektiivne lähenemine, reserveerides kalleid “nutikaid” täppispomme tähtsamate sihtmärkide jaoks.

Allikad:
1. +972 Magazine – https://972mag.com/
2. Local Call – https://www.localcall.org/

Lisaks antud artiklile, on oluline mõista tööstuse ja turu prognoose seoses tehisintellekti (AI) kasutamisega sõjalistes operatsioonides. AI kasutamine sõjapidamises on kasvav trend, kus paljud riigid investeerivad suurel määral tehisintellekti-põhiste süsteemide arendamisse ja integreerimisse oma sõjalistesse strateegiatesse.

Turu prognoosid näitavad, et globaalne sõjalise AI turu väärtus peaks 2025. aastaks kasvama 18.82 miljardi dollarini, aastase keskmise kasvumääraga 14.75% prognoosiperioodi jooksul. Autonoomsete süsteemide, intelligentsete otsustusvõimaluste ja parema olukorrateadlikkuse järele kasvav nõudlus soosib selle turu kasvu. AI tehnoloogia pakub potentsiaali optimeerida sõjalisi operatsioone, töödeldes ja analüüsides suuri andmemahtusid, parandades sihtmärkide tuvastamist ja koordineerimist erinevate sõjaliste üksuste vahel.

Ent AI kasutamine sõjalistes operatsioonides tõstatab olulisi eetilisi küsimusi ja väljakutseid. Lavenderi juhtum toob esile potentsiaali, et AI süsteemid võivad teha kallutatud või ebatäpseid otsuseid, mis viivad ootamatute tagajärgedeni ja tsiviilohvritele. Individuaalsete sihtmärkide diskrimineeriv sihtimine, eriti mitteesinduslikes kohtades, on olnud suureks probleemiks AI-põhiste sõjaliste süsteemide kasutamisel. On oluline hoolikalt kaaluda selliste süsteemide kasutamisega seotud eetilisi ja õiguslikke tagajärgi ning tagada, et oleksid olemas piisavad abinõud, et kaitsta tsiviilisikuid.

Oluline on märkida

Privacy policy
Contact