Program umetne inteligence identificira tisoče osumljencev v Gazi.

Program analize podatkov Lavender je bil omenjen, ker je označil približno 37.000 posameznikov kot morebitne povezance Hamasa v Gazi, ki domuje približno 2,3 milijona ljudi. Informacije, ki so jih zagotovili viri za “+972” iz Tel Aviva in Local Call, kažejo, da je algoritem ocenil verjetnost posameznikove povezave s Hamasom na podlagi nejasnih meril.

V zgodnjih fazah konflikta naj bi se izraelska vojska strogo držala ugotovitev programa, pri čemer so bili identificirani posamezniki tarča brez razpoznavnih meril, dokler so bili moški.

Sporen koncept “človeških tarč”, ki so bile doslej rezervirane za visoke vojaške osebnosti, je bil po 7. oktobru znatno razširjen, da bi vključeval širši spekter posameznikov, ki so bili zaznani kot povezani z Hamasom. Ta pomembna širitev potencialnih tarč je zmanjšala izvedljivost individualne verifikacije, kar je povečalo zanašanje na umetno inteligenco.

Eden izmed virov je izrazil zaskrbljenost nad primeri, kjer bi bila hiša bombardirana, da bi se »odpravilo« ime, ki ga smatrajo za »nesignifikantno«, kar implicitno priznava civilne pokole v Gazi. Poleg tega viri poudarjajo operacije proti ciljem nižje ravni, kjer je bilo dovoljenih do 20 civilnih žrtev, kar kaže na odstop od načela sorazmernosti. Nasprotno, prag žrtev za visokocenovne tarče naj bi po poročanju dosegel tudi do 100 civilistov.

Enostavna dejanja, kot so redne spremembe telefonske številke ali prebivališča, ali sodelovanje v skupini WhatsApp, ki nasprotuje Izraelu, so bila dovolj za vključitev na seznam, ki bi lahko privedel do smrtnih posledic – oster odsev širših meril, ki se jih uporablja za prebivalce Gaze s strani izraelskih sil.

Tehnologije umetne inteligence (AI) so vse pogosteje vključene v vojaške in nadzorne operacije, države pa te orodja uporabljajo za različne namene, vključno z identifikacijo potencialnih groženj. Uporaba AI v takih kontekstih postavlja več pomembnih vprašanj, izzivov in kontroverz, kot tudi prednosti in slabosti, ki so vredne raziskovanja v povezavi s temo uporabe AI za identifikacijo osumljencev v Gazi.

Ključna vprašanja:
1. Kakšne so etične posledice uporabe AI pri vojaških odločitvah o ciljanju?
2. Kako se ta program AI ujema z mednarodnim pravom, vključno s principi razlikovanja in sorazmernosti?
3. Kakšni sistemi zaščite obstajajo, da se zagotovi natančnost AI-generiranih spoznanj?
4. Kako uporaba AI v vojaških operacijah vpliva na civilno prebivalstvo v konfliktnih conah?

Ključni izzivi in kontroverze:
1. Natančnost in pristranskost: Sistemi AI so odvisni od kakovosti in pristranskosti podatkov, na katerih so usposobljeni. Obstaja tveganje za napačno identifikacijo in možnost za nerazmerno ciljanje določenih skupin ali posameznikov.
2. Etične skrbi: Uporaba AI za vojaške namene, zlasti pri odločitvah o ciljanju, postavlja vprašanje odgovornosti za civilne žrtve in moralnosti zanašanja na algoritme za odločanje o življenju in smrti.
3. Transparentnost: Merila in algoritmi, ki se uporabljajo v programih AI kot je Lavender, so pogosto nečitljivi, kar otežuje oceno njihove pravičnosti in držanje odgovornih za delovanje.
4. Skladnost z mednarodnimi zakoni: Skrbi so, ali operacije, ciljane s pomočjo AI, spoštujejo mednarodno humanitarno pravo, ki narekuje zaščito civilistov v konfliktih.

Prednosti:
1. Učinkovitost: AI lahko obdela ogromne količine podatkov veliko hitreje kot ljudje, kar omogoča prepoznavanje groženj, ki bi sicer morda ostale neopažene.
2. Konsistentnost: Programi AI lahko dosledno uporabljajo enaka merila, medtem ko se lahko človeška presoja spreminja.

Slabosti:
1. Civilne žrtve: Pomanjkanje natančne verifikacije lahko privede do večjih tveganj civilnih žrtev, še posebej, ko je visok prag žrtev določen za napade na določene tarče.
2. Odgovornost: Težko je določiti odgovornost za napake ali nepravilnosti, kadar so odločitve sprejete ali podprte s strani AI.

Kar zadeva dodatne informacije, bralci, ki jih zanima več o umetni inteligenci in njenih posledicah, lahko obiščejo ugledne organizacije za raziskovanje in politike AI. Tu sta dve vodilni organizaciji:
AI Now Institute – Osredotoča se na družbene posledice umetne inteligence.
Partnership on AI – Partnerstvo med vodilnimi tehnološkimi podjetji, civilno družbo in akademiki za vzpostavitev najboljših praks za AI.

Privacy policy
Contact