Vpliv umetne inteligence na izraelske vojaške operacije

V zadnjih novicah je uporaba izraelske programske opreme za umetno inteligenco (AI) imenovane Lavender prišla pod drobnogled. Programska oprema se uporablja za zbiranje in analizo informacij o domnevnih tarčah Hamasa pred vojaškimi operacijami. Medtem ko se Izraelske obrambne sile (IDF) zagovarjajo uporabo te tehnologije kot koristnega orodja, kritiki trdijo, da je ta lahko imela pomemben vpliv na obseg uničenja v Gazi.

Kontroverza okoli Lavender se je začela z poročilom v časopisu The Guardian, ki je razkrilo, da je Izrael uporabil AI podatkovno bazo za identifikacijo 37.000 domnevnih tarč Hamasa. Izraelska revija +972, ki je nagnjena v levo, je sodelovala z Local Call, da je objavila članek, ki je še dodatno osvetlil uporabo AI v Izraelu. Po mnenju +972 je Lavender igral ključno vlogo pri bombardiranju Palestincev, pri čemer je vojska obravnavala izhod iz AI stroja, kot da bi bil človeška odločitev.

The Washington Post je prav tako prisluhnil poročilu The Guardian, sugerirajoč, da bi lahko uporaba AI tehnologije razložila obsežno uničenje, ki smo ga videli med konfliktom. Skrbi glede uporabe Lavenderja s strani Izraela so sprožile preiskavo Združenih držav, kjer je tiskovni predstavnik Bele hiše John Kirby potrdil, da preiskujejo zadevo.

V odzivu na kontroverzo je tiskovni predstavnik IDF Nadav Shoshani branil uporabo Lavenderja na družbenih omrežjih. Zavrgel je članek v The Guardianu, opisal AI podatkovno bazo kot le orodje za preverjanje obstoječih informacij o operativcih terorističnih organizacij. Shoshani je poudaril, da podatkovna baza ni seznam operativcev, ki so upravičeni za napad, ampak pomoč pri človeški analizi.

Vendar kritiki trdijo, da je ta razlika irelevantna, saj Izrael trdi pravico do napada na katerokoli Hamasovo tarčo. Zato podatkovna baza, ki vsebuje informacije o domnevnih članih Hamasa, dejansko služi kot seznam potencialnih tarč. Skrbi segajo onstran uporabe AI tehnologije same, dvigajoč vprašanja o pomembnosti človeških obveščevalcev v procesu izbire tarč.

Po intervjujih The Guardiana z izraelskimi obveščevalci so nekateri izmed njih izrazili dvome o vrednosti lastne vloge v procesu izbire tarče. Eden od častnikov je priznal, da so porabili zgolj 20 sekund za vsako tarčo, kar nakazuje, da je bilo njihovo prispevanje minimalno in je pretežno služilo kot žig odobritve. Drugi častnik je razkril, da je občutil stalni pritisk nadrejenih, da identificira več tarč.

Kontroverza okoli vloge AI v izraelskih vojaških operacijah poudarja kompleksnosti in etične premisleke, povezane s takšno uporabo tehnologije v kontekstu oboroženih konfliktov. Medtem ko IDF vztraja, da je človeška analiza ključna, kritiki trdijo, da vse večja odvisnost od AI lahko ogrozi proces odločanja in okrepi uničujoče posledice vojaških dejanj.

PPogosta vprašanja

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact