Upotreba AI u Izraelovom ciljanju bombardiranja izaziva zabrinutost

Umjetna inteligencija (AI) postala je tema zabrinutosti kako zemlje poput Sjedinjenih Američkih Država i Kine uključuju u svoje vojne operacije. Nedavno su se pojavili izvještaji da Izrael koristi AI tehnologiju za identifikaciju ciljeva bombardiranja u Gazi, izazivajući duboke zabrinutosti o sigurnosti civila i zamagljivanju odgovornosti.

Prema Tel Avivskom časopisu +972 Magazine i Local Call, Izrael je koristio AI program nazvan “Lavender” za generiranje ciljeva za atentate, posebno Palestinaca osumnjičenih za članove Hamasa. Izvještaj tvrdi da je ovaj AI sustav igrao značajnu ulogu u neviđenoj kampanji bombardiranja protiv Palestinaca.

Taj izraelski obavještajac Yuval Abraham u +972 Magazinu citirao je obavještajne časnike koji su osobno bili uključeni u korištenje AI za generiranje ciljeva za atentate. Ti časnici otkrili su da je utjecaj Lavender AI programa bio tako velik da su njegovi izlazi tretirani kao da su ljudske odluke. Popisi za ubojstva softvera odobravali su časnici i samo su “žigirani” od strane ljudi, unatoč priznanju da je sustav pravio pogreške u otprilike 10% slučajeva i ponekad ciljao osobe sa slabim ili nikakvim vezama s militantnim skupinama.

Izvori Abrahama tvrde da su tisuće Palestinaca, među njima mnogi nedužni civili uključujući žene i djecu, ubijene u izraelskim zračnim napadima tijekom ranih faza rata zbog odluka koje je donio AI program. Lavender je navodno odabrao oko 37.000 članova Hamasa za atentate, uglavnom mlađe članove.

Upotreba AI u ratovanju postavlja ozbiljna etička pitanja i izaziva principe međunarodnog prava. Generalna skupština Ujedinjenih Naroda nedavno je usvojila neobaveznu rezoluciju s ciljem promicanja razvoja sigurnih, pouzdanih i pouzdanih AI sustava. Međutim, ova rezolucija, suorganizirana od strane više od 110 zemalja uključujući Kinu, nije se bavila vojnom uporabom AI-a.

Zapovjedništvo izraelske obrane (IDF) poriče korištenje AI-a u identifikaciji ciljeva, tvrdeći da su njihovi informacijski sustavi samo alati koje koriste analitičari u procesu identifikacije ciljeva. IDF tvrdi da analitičari moraju provesti neovisne preglede kako bi osigurali da identificirani ciljevi ispunjavaju relevantne definicije prema međunarodnom pravu i izraelskim smjernicama.

Dok su pojedinosti ovog slučaja još uvijek sporne, šira rasprava oko vojne uporabe AI-a zahtijeva pažljivo razmatranje. Ključno je vagati potencijalne koristi AI-a u poboljšanju vojnih sposobnosti nasuprot rizicima koje predstavlja za sigurnost civila, odgovornost i pridržavanje međunarodnih zakona i normi.

FAQ:

Q: Što je program Lavender?
A: Program Lavender je, navodno, umjetni inteligentni (AI) sustav koji koristi Izrael za identifikaciju ciljeva bombardiranja u Gazi.

Q: Koje su zabrinutosti oko izraelske uporabe AI-a u ciljanju bombardiranja?
A: Zabrinutosti se vrte oko sigurnosti civila i zamagljivanja odgovornosti u odlukama o životu i smrti. Postoji zabrinutost zbog potencijalnih pogrešaka AI sustava i utjecaja na nedužne pojedince.

Q: Koliko Palestinaca je ubijeno u kampanji bombardiranja?
A: Prema ministarstvu zdravstva koje kontrolira Hamas, više od 32.000 Palestinaca ubijeno je od odmazde Izraela, nakon napada Hamasa 7. listopada.

Q: Što je rekao Ujedinjeni narodi o ovom pitanju?
A: Glavni tajnik UN-a Antonio Guterres duboko je zabrinut zbog korištenja AI-a u ciljanju bombardiranja. Naglasio je potrebu da se AI koristi za dobro, a ne da doprinosi eskalaciji ratovanja.

Q: Što IDF kaže o uporabi AI-a?
A: IDF poriče korištenje AI-a u identifikaciji ciljeva i tvrdi da su njihovi informacijski sustavi samo alati za analitičare u procesu identifikacije ciljeva. Tvrdi da se pridržavaju međunarodnog prava i izraelskih smjernica.

Izvori:
– +972 Magazine i Local Call (URL: domain.com)
– Generalna skupština Ujedinjenih naroda (URL: domain.com)

The source of the article is from the blog macnifico.pt

Privacy policy
Contact