Izraelski AI sustav izaziva etičke zabrinutosti u sukobu

Izraelska vojska je uvela neviđeni nivo automatizacije u ratovanju implementiranjem programa umjetne inteligencije (AI) nazvanog Lavender. Ovaj sustav je osmišljen za odabir meta za bombardiranje, zadatak koji tradicionalno zahtijeva temeljitu ljudsku provjeru radi osiguranja legitimnosti. Lavender je u svojim početnim tjednima označio 37.000 Palestinskih pojedinaca i povezan je s olakšavanjem najmanje 15.000 smrtnih slučajeva od svog nastanka tijekom invazije Gaze, istrage izraelskih novinarskih izvora i The Guardiana su otkrile.

Kontroverza okružuje Lavender jer su vojni zapovjednici kritizirani zbog toga što su odluke o životu i smrti koje preporučuje sustav tretirali kao puki statistički analitički, s prihvatljivim parametrima kolateralne štete koji omogućuju smrt mnogih civila u odnosu na visoko profilne mete. Implementacija sustava dovela je do uništenja više zgrada tijekom noćnih udara, znatno povećavajući broj civilnih žrtava.

Unatoč osjetljivoj prirodi odabira ljudskih meta, Izraelske obrambene snage (IDF) odbacile su tvrdnje da stroj autonomno identificira teroriste. Službeni izvori tvrde da informacijski sustavi poput Lavendera samo su alat koji pomaže analitičarima pri identifikaciji meta, iako izvori sugeriraju da časnici uglavnom samo ovjeravaju prijedloge sustava bez daljnjih provjera.

Kriteriji koje Lavender koristi za povezivanje pojedinaca s Hamasom ili Islamskim džihadom ostaju nepoznati, osim nekoliko čimbenika poput čestih promjena telefona ili muškog spola. Kao i svaki AI sustav, Lavender djeluje na temelju vjerojatnosti i nije neograničeno pouzdan, s procijenjenom stopom pogreške od 10% u odabiru meta, što pridonosi visokom broju nevinih Palestinskih života izgubljenih.

Drugi AI sustav, “Gdje je tata?”, pomaže u praćenju meta za udare kada su kod kuće, a “Evanđelje” identificira strukture navodno korištene od strane pripadnika Hamasa. U međuvremenu, pravni stručnjaci raspravljaju o tome da li se korištenje AI u takvim primjenama podudara s međunarodnim humanitarnim pravom, raspravom koju dodatno potpaljuje nedostatak ljudske provjere u brzom procesu ciljanja.

Ključni izazovi i kontroverze:

– Jedan značajan izazov je etička implikacija dopuštanja AI sustavu da sudjeluje u odlukama koje imaju posljedice po život i smrt. Oslanjanje na algoritme za određivanje meta u zonama sukoba postavlja pitanja o odgovornosti i usklađenosti s međunarodnim humanitarnim pravom, koje ograničava upotrebu sile na borcima i vojnim ciljevima te teži minimaliziranju štete civilima.
– Druga kontroverza je stepen transparentnosti oko kriterija koje AI sustavi poput Lavendera koriste za identifikaciju meta. Nedostatak otkrivenosti ovih kriterija može dovesti do nepovjerenja i zabrinutosti u vezi s poštenošću i mogućnošću diskriminacije ili pogrešnog ciljanja na temelju pristranih podataka ili algoritama.
– Prijavljena visoka stopa pogrešaka u odabiru meta Lavendera, procijenjena na 10%, postavlja ozbiljne zabrinutosti o vjerojatnosti civilnih žrtava, koje bi potencijalno mogle predstavljati ratne zločine prema međunarodnom pravu.
– Postoji i pitanje pristranosti automatizacije, gdje ljudski operatori mogu previše ovisiti o preporukama AI sustava bez dovoljne kritičke analize, što bi moglo povećati rizik od pogrešaka.
– Korištenje AI sustava u vojnim operacijama poput Lavendera, “Gdje je tata?”, i “Evanđelje” presijeca se s trenutnim raspravama o razvoju i implementaciji smrtonosnih autonomnih oružanih sustava (LAWS), koji su predmet međunarodnih rasprava o njihovoj regulaciji ili zabrani.

Prednosti:

– AI sustavi poput Lavendera mogu obraditi ogromne količine podataka mnogo brže od ljudskih analitičara, što može biti ključno za identifikaciju i reagiranje na prijetnje u stvarnom vremenu unutar složenog bojišta.

Mane:

– Potencijal za gubitak nadzora ljudi može dovesti do etičkih prekršaja, posebno kada proces donošenja odluka nedostaje dovoljno transparentnosti.
– Korištenje AI za odabir meta može rezultirati pogreškama koje bi mogle dovesti do civilnih žrtava i uništenja civilne infrastrukture, postavljajući pravne i moralne probleme.
– Takvi sustavi mogu biti podložni pristranostima koje se nalaze u podacima ili algoritmima koje koriste, a te pristranosti mogu dovesti do nepravednog ciljanja i nepovoljnih humanitarnih ishoda.

Ako vas zanima istraživanje više o korištenju umjetne inteligencije u ratovanju i etičkim problemima koje to može izazvati, posjetite ugledne izvore poput Human Rights Watch, koji često raspravlja o implikacijama novih tehnologija u vojnim operacijama, ili Međunarodni odbor Crvenog križa, koji se bavi pitanjima vezanim uz međunarodno humanitarno pravo.

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact