Program umetne inteligence identificira tisoče osumljencev v Gazi.

Program analize podatkov Lavender je bil omenjen zaradi beleženja približno 37.000 posameznikov kot potencialnih povezancev s Hamasom v Gazi, domu za približno 2,3 milijona ljudi. Informacije, ki so jih posredovali viri revijama “+972” in Local Call s sedežem v Tel Avivu, nakazujejo, da je algoritem ocenjeval verjetnost osebine povezave s Hamasom na podlagi neprozirnih kriterijev.

V zgodnjih fazah konflikta naj bi se izraelska vojska strogo držala ugotovitev programa, pri čemer so bili identificirani posamezniki tarča brez razpoznavnih meril, pod pogojem, da so bili moški.

Sporna koncepta “človeških ciljev”, zgodovinsko rezerviranih za visokorangirane vojaške osebe, sta bila opazno razširjena po 7. oktobru, da bi vključevala širši nabor posameznikov, ki so bili zaznani kot imajo vezi s Hamasom. Ta občutna razširitev potencialnih ciljev je omejila izvedljivost posamezne verifikacije ter spodbudila večje zaupanje v umetno inteligenco.

Eden od virov je izrazil zaskrbljenost nad primeri, kjer je bila hiša bombardirana za odpravo “nesignifikantnega” imena, kar pomeni priznanje civilnih pokolov v Gazi. Poleg tega viri izpostavljajo operacije proti ciljem nizkega nivoja, kjer je bilo dovoljenih do 20 civilnih žrtev, kar kaže na odmik od načela sorazmernosti. Nasprotno, prag civilnih žrtev za cilje visoke vrednosti naj bi lahko dosegel do 100 civilistov.

Preproste akcije, kot so redne menjave mobilnih telefonov ali prebivališč, ali sodelovanje v skupini WhatsApp, ki je proti Izraelu, so se smatrale kot dovolj za vključitev na seznam, ki bi lahko vodil do smrtnih posledic – jasen odsev širokih meril, uporabljenih za prebivalce Gaze s strani izraelskih sil.

Tehnologije umetne inteligence (AI) so bile vse bolj vključene v vojaške in nadzorne operacije, pri čemer države uporabljajo takšna orodja za različne namene, vključno z identifikacijo potencialnih groženj. Uporaba AI v takšnih kontekstih postavlja več pomembnih vprašanj, izzivov in kontroverz, pa tudi prednosti in slabosti, ki so vredne raziskovanja v povezavi s temo uporabe AI za identifikacijo osumljencev v Gazi.

Življenjske ključe kot:
1. Kakšne so etične posledice uporabe AI za vojaške odločitve o tarčah?
2. Kako se uporaba takega programa AI skladno s mednarodnim pravom, vključno s principi razlikovanja in sorazmernosti?
3. Kakšne varovalke obstajajo, da bi zagotovile točnost AI-generiranih vpogledov?
4. Kako uporaba AI v vojaških operacijah vpliva na civilno prebivalstvo v konfliktnih območjih?

Ključni izzivi in kontroverze:
1. Točnost in pristranskost: Sistemi AI so odvisni od kakovosti in pristranskosti podatkov, na katerih so usposobljeni. Obstaja tveganje napačne identifikacije in možnost nesorazmernega ciljanja določenih skupin ali posameznikov.
2. Etični pomisleki: Uporaba AI za vojaške namene, zlasti pri odločanju o tarčah, postavlja vprašanja o odgovornosti za civilne žrtve in moralnosti zanašanja na algoritme za odločitve življenja in smrti.
3. Prosojnost: Kriteriji in algoritmi, uporabljeni v programih AI, kot je Lavender, so pogosto neprozirni, kar otežuje oceno njihove pravičnosti in držanje operaterjev odgovornih.
4. Skladnost z mednarodnimi zakoni: Skrbi so o tem, ali preiskave ciljev s pomočjo AI skladajo z mednarodnim humanitarnim pravom, ki nalaga varovanje civilistov v konfliktih.

Prednosti:
1. Učinkovitost: AI lahko obdela velike količine podatkov veliko hitreje kot ljudje in potencialno identificira grožnje, ki bi sicer lahko ostale neopazne.
2. Enakost: Programi AI lahko dosledno uporabljajo iste kriterije, medtem ko se človeško presoja lahko razlikuje.

Slabosti:
1. Civilne žrtve: Pomanjkanje natančne verifikacije lahko vodi v večje tveganje civilnih žrtev, še posebej, ko je določen visok prag civilnih žrtev za napade na določene tarče.
2. Odgovornost: Oteženo je določiti odgovornost za napake ali nepravilnosti, ko so odločitve sprejete ali podprte s strani AI.

Za dodatne informacije lahko bralci, ki jih zanima več o umetni inteligenci in njenih posledicah, obiščejo ugledne organizacije za raziskave in politike na področju AI. Tukaj sta dva vodilna podjetja:
Institut AI Now – Osnovano na družbenih posledicah umetne inteligence.
Partnerstvo na področju AI – Partnerstvo med vodilnimi tehnološkimi podjetji, civilno družbo in akademiki za uveljavljanje najboljših praks za AI.

[vdelano]https://www.youtube.com/embed/MFKC9Rhc55Y[/vdelano]

Privacy policy
Contact