Küsimus “Levendel”: Iisraeli tehisintellekti põhised operatsioonid Gazas

Ameerika Ühendriikide toetusega on Iisraeli Kaitseväed (IDF) väidetavalt kasutanud kunstliku intelligentsuse süsteemi nimega “Lavendel” operatsioonide läbiviimiseks Gazas, oluliselt laiendades nende jälgimis- ja sihitud praktikate ulatust. Kasutades masinõppe algoritme töötleb Lavendel tohutul hulgal andmeid ligikaudu 2,3 miljoni Gaza elaniku kohta, määrates igale inimesele skaala 1 kuni 100 punkti, mis lõppkokkuvõttes mõjutab nende prioriteetsust sihtmärgina.

Lavendeli funktsionaalsus on vastuolulise arutelu keskmes, kuna selle algoritm on ekslikult tuvastanud IDF operatiivide sõnul tuhandeid mitteseotud tsiviilelanikke. Need isikud on nüüd kogemata kategooriasse paigutatud relvastatud mässuliste kõrval. Lavendel liigitab potentsiaalsed sihtmärgid kahte põhirühma: ’inimsihtmärgid’, tavaliselt juhtivat positsiooni omavad isikud, ja ‘prügisihid’, mis viitavad madalama astme sõduritele. Viimast rühma rünnatakse sageli juhtimata rakettidega, mis võivad põhjustada märkimisväärset varakahju ja vältimatuid tsiviilohvreid.

Süsteem toimib inimjärelevalveta, põhjustades automatiseeritud massrünnakute mustrit palestiinlaste vastu Gazas. See lähenemine on tekitanud olulisi eetilisi muresid, kuna määratletud sihtmärgid rünnatakse sageli nende kodudes, öösel, koos nende perekondadega. Selle tulemusena võib selline praktika viia mitmete tahtmatute surmadeni, mida tuntakse ka kui “kollateraalset kahju”.

Iisraeli ajakirjanik ja rahuaktivist Yuval Abraham on viinud läbi põhjalikke uurimusi Lavendeli kohta, tuues esile nende AI-põhiste strateegiate tõsised tagajärjed. Abraham avastas, et kõrgemad ametnikud sageli ei vaata hoolikalt sihitud isikute läbi, tuginedes süsteemi soovitustele ja jättes kontrollimisprotsessi algoritmi kätte, millega võib kaasneda viga.

Abrahami koostatud aruanded pooldavad, et Lavendel poolt võimaldatud tegevusi tuleks uurida Rahvusvahelise Kohtu poolt, pidades seda potentsiaalseks terrorismiks riigi vastu ja inimsusevastasteks kuritegudeks. Kui piir automaatse sõjapidamise ja vastutustundliku sõjalise tegevuse vahel hägustub, jätkuvad AI eetikaga seotud küsimused konfliktitsoonides nagu Gaza rahvusvahelise kriitilise arutelu esilekutsumist.

Olulised küsimused ja vastused:

1. Millised on AI nagu “Lavendel” kasutamise tagajärjed sõjalistes operatsioonides?
AI kasutamine sõjalistes operatsioonides tekitab olulisi eetilisi, õiguslikke ja vastutusega seotud küsimusi. AI-süsteemid nagu Lavendel suudavad töödelda suures koguses andmeid sihtmärkide tuvastamiseks ja prioriseerimiseks, kuid võivad teha ka vigu, mis võivad viia tsiviilohvriteni või rahvusvahelise õiguse rikkumisteni.

2. Kuidas eristab “Lavendel” võitlejaid tsiviilisikutest?
Lavendel määrab väidetavalt indiviididele skoori, neid võimalikult ’inimsihtmärkideks’ või ‘prügisihtideks’ klassifitseerides. Siiski on see liigitamine viinud vigadeni, kus tsiviilelanikke on väidetavalt tuvastatud võitlejatena, tekitades küsimusi algoritmi täpsuse ja diskrimineerimise kohta.

3. Millised on peamised väljakutsed või vaidlused seotud “Lavendeli” kasutamisega?
Peamised väljakutsed hõlmavad võimalust valesti tuvastada, inimjärelevalve puudumine, mis viib automatiseeritud rünnakuteni piisava kontrollita ning moraalsed tagajärjed otsustada elu ja surma küsimusi masinatele delegeerides. Lisaks võib selliste süsteemide kasutamist näha riigi toetatud vägivallana, kui need toovad kaasa tsiviilohvreid, tõstatades küsimusi rahvusvahelise humanitaarõiguse järgimise kohta.

Eelised ja puudused:

Eelised:
– Andmete töötlemise ja võimalike sihtmärkide tuvastamise efektiivsuse suurenemine.
– Võimekus töötada pidevalt ilma väsimuseta, erinevalt inimoperaatoritest.
– Võib pakkuda strateegilist eelist, kohanedes kiiresti muutuvate olukordadega maastikul.

Puudused:
– Risk tsiviilelanike valesti tuvastamiseks võitlejatena, mis võib viia vale vigastuse või surmani.
– Vastutuse ja läbipaistvuse puudumine otsustusprotsessis.
– Eetilised mured sõja dehumaniseerimise ja võimalike rahvusvahelise õiguse rikkumiste pärast.
– Võimalik inimjärelevalve ja moraalse vastutuse lagunemine sõjaliste operatsioonide korral.

Lisateabe saamiseks tehisintellekti eetika ja regulatsioonide kohta sõjalistes kontekstides külastage järgmisi ametlikke veebisaite:

Ühinenud Rahvaste Organisatsioon
Rahvusvaheline Punase Risti Komitee
Amnesty International
Ameerika Ühendriikide Kaitseministeerium

Palun pange tähele, et kuigi need lingid viivad organisatsioonide põhilehtedele, kust võib leida teavet seoses tehisintellekti kasutamisega sõjalistes operatsioonides, ei pruugi “Lavendeli” ja selle kasutamise Iisraeli Kaitsevägede kohta spetsiifilist teavet otse neil saitidel olla.

Privacy policy
Contact