Realnost ratovanja s AI: Otkrivanje neželjenih posljedica

Nedavno korištenje sustava umjetne inteligencije (AI) od strane izraelske vojske za generiranje popisa ciljeva za potencijalne zračne udare u Gazi privuklo je pažnju na implikacije vojne AI. Prema izvještaju objavljenom u neprofitnom mediju +972 Magazine, sustav poznat kao Lavender korišten je uz druge AI sustave za ciljanje i atentat na osumnjičene militante, što je rezultiralo znatnim civilnim žrtvama.

I dok Izraelske obrambene snage negiraju mnoge tvrdnje u izvještaju, tvrdeći da Lavender nije AI sustav već baza podataka za međusobno upućivanje obavještajnih izvora, druge izvore potvrđuju korištenje AI u izraelskim vojnim operacijama. U 2021. godini, Jerusalem Post izvijestio je da je Izrael koristio sustave strojnog učenja za identifikaciju ciljeva tijekom sukoba s Hamasom. Također, AI sustav nazvan Habsora spomenut je u prethodnom izvještaju +972 koji automatski identificira potencijalne militantne građevine i objekte za bombardiranje.

Potencijal AI u vojsci nije ograničen samo na Izrael. Zemlje poput Sjedinjenih Američkih Država i Kine također ulažu u AI sustave u vojne svrhe. Pružatelji podrške tvrde da AI može dovesti do bržeg donošenja odluka, veće točnosti te smanjenja civilnih žrtava. Međutim, postoje zabrinutosti zbog nedostatka ljudske kontrole i potencijala za pogreške u ciljevima generiranim AI.

Nedavni +972 izvještaj tvrdi da Lavender automatizira proces identifikacije ciljeva, ali može imati manje stroge kriterije i niže standarde dokaza, što dovodi do pogrešaka u otprilike 10% slučajeva. Također se sugerira da se ciljevi bombardiraju u njihovim domovima kao prva opcija, što rezultira civilnim žrtvama.

Etičke i pravne zabrinutosti oko vojne AI uglavnom su zanemarene. Trenutno ne postoje univerzalno prihvaćena ili pravno obvezujuća pravila koja reguliraju njezinu upotrebu. Međutim, došlo je do određenih razvoja u rješavanju ovih problema. Ujedinjeni narodi već desetljećima raspravljaju o korištenju “smrtonosnih autonomnih oružanih sustava”, a Opća skupština UN nedavno je glasovala u korist nacrta rezolucije koja navodi da algoritmi ne bi trebali biti potpuno u kontroli odluka koje uključuju ubijanje. SAD su također objavile deklaraciju o odgovornoj upotrebi vojne AI i autonomije, koja je dobila podršku brojnih zemalja.

Unatoč tim naporima, međunarodne regulacije o korištenju vojne AI teško prate brzi napredak tehnologije. Kako vojske diljem svijeta prihvaćaju AI sustave za ratovanje, neželjene posljedice i potencijalne humanitarne štete postaju očitije. Izvještaji o korištenju AI sustava u Gazi pokazuju ograničenja i neželjene posljedice oslanjanja isključivo na algoritme za donošenje odluka o ciljanju.

Obećanje preciznog ratovanja omogućenog AI-em još nije u potpunosti ostvareno. Izvještaji o korištenju AI sustava u Gazi pokazuju ograničenja i neželjene posljedice oslanjanja isključivo na algoritme za donošenje odluka o ciljanju. Važno je rješavati etičke i moralne dileme povezane s vojnom AI, osiguravajući da ljudska kontrola i međunarodne regulacije budu uspostavljene kako bi se spriječila zloupotreba ove moćne tehnologije.

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact