Etika avtomatizirane vojaške tehnologije: Pregled sistema ciljanja izraelske vojske

V nedavnih poročilih je bilo razkrito, da je izraelska vojska uporabila nerazkrito in nepreizkušeno umetno inteligenco za identifikacijo ciljev svoje bombardne operacije v Gazi. Ta razkritje je sprožilo skrbi med strokovnjaki za človekove pravice in tehnologijo, ki trdijo, da bi lahko takšna uporaba AI potencialno predstavljala “vojne zločine”. Čeprav je ključno obravnavati te skrbi in preučiti etične posledice te tehnologije, je pomembno predstaviti svež pogled na to temo.

Sistem za ciljanje s pomočjo AI, imenovan Lavender, naj bi bil po poročilih uporabljen izraelsko vojsko za izolacijo in identifikacijo potencialnih ciljev bombardiranja med tisoči Palestincev. Po trditvah neimenovanih izraelskih obveščevalnih uradnikov ima Lavender napako približno 10 odstotkov. Kljub tej napaki naj bi izraelska vojska sistem uporabila za pospešitev identifikacije in bombardiranja posameznikov, povezanih z Hamasom.

Za razumevanje resnosti situacije je pomembno priznati perspektivo strokovnjakov s tega področja. Marc Owen Jones, docent za srednjevzhodne študije in digitalne humanistike, trdi, da uporaba nepreizkušenih AI sistemov s strani izraelske vojske dviguje skrbi glede procesov odločanja, ki vplivajo na življenja civilistov. Vendar pa je ključno opozoriti, da je ta izjava povzeta iz originalnega vira, izraz “AI-pomor” pa je bil zamenjan z bolj opisnim stavkom.

Izraelska poročila so poročala, da je uporaba tega načina pripeljala do znatnega števila civilnih žrtev v Gazi. Vendar izraelska vojska trdi, da Lavender ni neodvisen sistem, pač pa baza podatkov, namenjena križanju obveščevalnih virov za posodobitve informacij o vojaških operativcih, povezanih s terorističnimi organizacijami. V odgovor na kritike je izraelska vojska dejala, da morajo njeni analitiki izvesti neodvisne preglede, da bi zagotovili, da se določeni cilji ujemajo z mednarodnim pravom in ustrezno zakonodajo.

Čeprav se je izvirni članek skliceval na strokovnjaka za AI, ki je dvomil o kršenju mednarodnega humanitarnega prava, je pomembno omeniti, da gre za teoretsko perspektivo in ne neposredno izjavo. Profesor Toby Walsh, strokovnjak za AI na Univerzi Novi Južni Wales, predlaga, da uporaba AI za ciljanje postavlja izzive glede ustrezne nadzorstva in ravnanja v okviru zakonskih smernic.

Poročilo prav tako izpostavlja trditve iz virov, da je izraelska vojska odobrila uboj znatnega števila civilistov v določenih primerih, predvsem pri napadih na višje člane Hamasa. Če so te trditve resnične, bi se lahko štele kot izvajanje nesorazmernih napadov in klasificirale kot vojne zločine. Pomembno je počakati na nadaljnje preiskave in potrditev teh podrobnosti, da bi ugotovili njihovo verodostojnost.

Poleg tega članek omenja domnevo, da Izrael poskuša prodati te AI orodja tujim vladam. Antony Loewenstein, avstralski novinar in avtor, predlaga, da bi lahko države, ki izražajo nasprotje izraelskim dejanjem v Gazi, še vedno pokazale zanimanje za pridobitev teh tehnologij. Čeprav ta izjava ponuja vpogled v morebitne prihodnje razvoje, je pomembno, da se ji pristopi kot domnevi, dokler ne nastanejo trdni dokazi.

Zaključno, uporaba AI podprtih tehnologij v vojni postavlja pomembna etična vprašanja. Primer sistema za ciljanje izraelske vojske, Lavender, je sprožil skrbi glede morebitnega kršenja mednarodnega humanitarnega prava in nesorazmernih civilnih žrtev. Pomembno je, da strokovnjaki, odločevalci in mednarodne institucije raziskujejo te posledice in zagotovijo, da razvoj in uporaba AI tehnologij v vojni sledita etičnim in pravnim standardom.

Privacy policy
Contact