Primjena umjetne inteligencije u ratovanju izaziva zabrinutost zbog civilnih žrtava

Umjetna inteligencija (AI) postala je sveprisutnija u vojnim operacijama, ali postoje zabrinutosti zbog njenog utjecaja na civilne žrtve. Izraelska vojska, na primjer, koristi AI alat nazvan Lavender kako bi pomogla u odabiru ciljeva za bombardiranje u Gazi. Međutim, prema istraživanju časopisa +972 Magazine i Local Call iz Izraela, ovaj sustav žrtvuje preciznost u korist brzine, što rezultira smrću tisuća civila.

Lavender sustav je razvijen nakon napada Hamasa 7. listopada, s ciljem identificiranja i odobravanja ubojstava osumnjičenih “Hamasovih militanata” u Gazi. Izraelska vojska nije priznala postojanje popisa za ubijanje, ali je priznala upotrebu Lavendera kao alata za analitičare u procesu identifikacije ciljeva. Međutim, izraelski obavještajni dužnosnici otkrili su da nisu bili obavezni neovisno provjeravati ciljeve odabrane od strane Lavendera, djelujući zapravo samo kao pečati za odluke stroja.

Za izgradnju Lavender sustava korišteni su podaci o poznatim operativcima Hamasa i Palestinskom islamskom džihadu, kao i o osobama labavo povezanim s Hamasom. Sustav je obučen da prepozna karakteristike povezane s operativcima Hamasa, poput njihove povezanosti s određenim WhatsApp grupama ili čestih promjena mobilnih telefona ili adresa. Na temelju tih značajki, Palestinci u Gazi rangirani su na skali od 1-100, pri čemu su oni koji su postigli određeni prag označeni kao ciljevi za udare. Lavender sustav se hvalio oko 90-postotnom točnošću, ali ipak je došao do pogrešne identifikacije osoba koje nisu bile članovi vojnog krila Hamasa.

Jedan od uznemirujućih aspekata Lavender sustava bio je njegov odbijanje civilnih žrtava. Obavještajnim službenicima dano je široko ovlaštenje kada je riječ o kolateralnoj šteti, s ovlaštenjem da ubiju do 15 ili 20 civila za svakog nižerazrednog operativca Hamasa. Za više rangirane Hamasove dužnosnike, navodno su čak “stotine” kolateralnih civilnih žrtava bile odobrene. Nadalje, ciljanje domova osumnjičenih operativaca Hamasa koristeći sustav “Gdje je tata?” često je rezultiralo bombardiranjem cijelih obitelji, čak i bez provjere prisutnosti ciljeva. Ovo ignoriranje civilnih života naglašava značajne etičke zabrinutosti oko korištenja AI u ratovanju.

Lavender sustav i slične tehnologije korištene od strane Izraela na području Gaze i Zapadne obale su uznemirujuće, posebno uzimajući u obzir izvještaje o tome da izraelske obrambene tvrtke namjeravaju izvoziti svoje AI-driven tehnologije u inozemstvo. Utjecaj na civilne populacije, kao i potencijal za zloupotrebu ovih alata, postavljaju ozbiljna pitanja o njihovim etičkim implikacijama.

### FAQ

Što je Lavender sustav?
Lavender sustav je alat umjetne inteligencije koji koristi izraelska vojska za pomoć pri identifikaciji i ciljanju osumnjičenih Hamasovih militanata u Gazi.

Kako je Lavender sustav obučen?
Lavender sustav je obučen koristeći podatke o poznatim operativcima Hamasa i Palestinskog islamskog džihada, kao i podatke o osobama labavo povezanim s Hamasom. Obučen je za prepoznavanje karakteristika povezanih s operativcima Hamasa, poput povezanosti s određenim WhatsApp grupama ili obrascima promjene mobilnih telefona i adresa.

Kolika je točnost Lavender sustava?
Lavender sustav se hvalio točnošću od oko 90 posto, što znači da je približno 10 posto onih koje je identificirao kao oporate Hamasa zapravo nisu bili članovi vojnog krila Hamasa.

Koje su posljedice korištenja Lavender sustava?
Korištenje Lavender sustava rezultiralo je smrću tisuća civila u Gazi, jer je često zanemarivana kolateralna šteta u korist ciljanja osumnjičenih Hamasovih operativaca.

Koje su zabrinutosti oko korištenja AI u ratovanju?
Zabrinutosti oko korištenja AI u ratovanju uključuju potencijal za netočnu identifikaciju ciljeva, zanemarivanje civilnih žrtava i etičke implikacije oslanjanja na strojeve za donošenje odluka o životu i smrti.

Kao što najnovije istraživanje pokazuje, razvoj umjetne inteligencije u vojnim operacijama otvara mnoga pitanja o etičnosti i sigurnosti pri korištenju ovih tehnologija u konfliktnim situacijama. Važno je pažljivo razmotriti implikacije takvih alata i osigurati da se koriste na odgovoran i etički način.

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact