Iepazīšanās ar kaujas lauka AI: Izraēlas militārās ‘Lavender’ un algoritmu kara ētika

Jaunizveidotās militārās tehnoloģijas veido moderno kara dinamiku

Nozīmīgs notikums militārajai stratēģijai, kas izklāstīta “Žanrālijas Generāļa YS” 2021. gadā izdotajā grāmatā, ir sākusies. Tēzis ierosināja augstas ātrdarbības datu apstrādes mašīnas izveidi, lai identificētu daudzus potenciālus militāros mērķus, uzlabojot cilvēku un mākslīgā intelekta sinerģiju.

“Lavender” ietekme uz Izraēlas aizsardzības operācijām

Izpētes ziņojumi, kas publicēti +972 un Local Call un atklāti Agência Pública, izceļ Izraēlas armijas mākslīgā intelekta programmas “Lavender” izmantošanu. AI spēlēja būtisku lomu mērķu izvēlē Gazas konfliktā, it īpaši tā sākotnējās stadijās, kā liecina seši Izraēlas izlūkdienestu darbinieki ar tiešu saikni ar programmu.

Sistēmas uzticamība un ētiskie apsvērumi karā

Atkarība no “Lavender” programmas, armija identificēja aptuveni 37 000 palestīniešu kā potenciālas aizdomas personas. Uzticība bija tik liela, ka lēmumi, ko pieņēma AI, bieži tika līdzīgi cilvēku spriedumiem, katram iespējamajam mērķim veltot vidēji 20 sekundes pirms rīcības sankcionēšanas. Lai gan AI visumā sasniedza augstu precizitāti, tā arī atzina 10% kļūdu līmeni, laiku pa laikam pāršķirot indivīdus, kuri minimāli vai nemaz nav saistīti ar mērķveida grupām.

Kontroversiālu mērķu identificēšana un civiliedzīvotāju risks

AI palīdzēja veikt sistematizētus uzbrukumus, tostarp tos, kas tika veikti dzīvojamo vietu, rezultātā rada daudz civiliedzīvotāju upuru. Šie upuri ietvēra daudzumā sievietes, bērnus un nekaujjošos iedzīvotājus. Izlūkdienesta ierēdnis norādīja, ka ir vieglāk mērķēt uz mājām nekā militārām lokācijām. Turklāt, zemāka ranga mērķiem tika izmantotas pamata, nevadītas munīcijas, lai ietaupītu naudu, neizmantojot dārgākus līdzekļus.

Precedentu noskaņojums militārajā iesaistīšanā

Vēl niekad nav bijis lēmums, ka katram zemu ranga darbiniekam, ko identificē, tiek atļauts līdz 15-20 civiliedzīvotāju upuri – skaitlis, kas ievērojami palielinās, kad runa ir par augstāka ranga amatpersonām.

Automatizēto mērķu hronoloģija Gazas konfliktā

Sākotnēji Izraēlas spēki bija stingri definējuši “cilvēku mērķus”, koncentrējoties uz augsta ranga darbiniekiem. Tomēr, sākot no 2023. gada 7. oktobra, Hamas vadītās viesuļņu izraisītās saasināšanās rezultātā visi personības, kas saistītas ar Hamas militāro spārnu, tika uzskatītas par piemērotiem mērķiem. Kad “Lavender” precizitāte tika apstiprināta ar paraugām, tās izvēles tika atļautas turpināt bez neatkarīgas pārbaudes, vienkāršojot un paātrinot lēmumu pieņemšanas procesu karā.

Šīs jaunās pieejas sekas, kā tas attēlots Palestīniešu veselības ministrijas datu, ietvēra būtisku nāves gadījumu skaitu pirmajās sešās nedēļās, ar skaitļiem gandrīz divkāršojoties, kad konflikts turpinājās. Lavender izmanto plašu uzraudzību pār Gazas 2,3 miljonu iedzīvotāju, lai noteiktu katras indivīda visticamību uz militāro darbību.

Algoritmiskā kara galvenās problēmas un kontroverses:

Algoritmiskais karš, piemēram, tāds, kas saistīts ar Izraēlas militāro “Lavender” AI programmu, rada nozīmīgas problēmas un kontroverses:

Ētiskie apsvērumi: Algoritmu izmantošana mērķu izvēlē raisa ētiskus jautājumus par autonomiju, atbildību un cilvēku dzīvības vērtību. Ar AI sistēmām, kas pieņem lēmumus sekundēs, rodas jautājumi par cilvēku pārraudzības piemērotību un iespējamu kara dehumanizāciju.

Civiliedzīvotāju upuru: AI mērķēšana var izraisīt lielu civiliedzīvotāju skaitu, ja sistēma nepareizi identificē mērķus vai ja proporcionalitātes vadlīnijas atļauj nozīmīgu blakuspostījumu. Riski nekaujošajiem, it īpaši bieži apdzīvotās vietās kā Gazā, ir liels cilvēktiesību jautājums.

Pārredzamība un atbildība: Pastāv jautājumi par to, kādā veidā šādas sistēmas darbojas un pieņem lēmumus bez pietiekamas uzraudzības ir grūti noteikt atbildību par kļūdainiem uzbrukumiem vai civiliedzīvotāju nāvi.

Juridiskās problēmas: AI karš pārbauda esošos starptautiskos humanitāros likumus, kas izstrādāti cilvēku lēmējiem. Joprojām tiek debatēts par AI sistēmu lēmumiem un darbībām konfliktu zonās.

Kaujas lauka AI priekšrocības un trūkumi:

Priekšrocības:
Efektivitāte: AI sistēmas, piemēram, “Lavender”, var apstrādāt datus un identificēt potenciālos mērķus ātrāk nekā cilvēki, kas var būt kritisks ātri mainīgās kaujas situācijās.
Resursu optimizācija: AI var palīdzēt ietaupīt naudu, nosakot nepieciešamo spēka līmeni dažādiem mērķiem.
Paaugstinātas iespējas: Progresīvā uzraudzība un analīze potenciāli var identificēt draudus, ko cilvēku analītiķi varētu nepamanīt.

Trūkumi:
Kļūdas mērķī: Atzītais AI sistēmu kļūdu līmenis var novest pie nepareizas mērķēšanas un nevainīgu dzīvību zaudēšanas.
Diskriminācijas trūkums: AI var cīnīties ar atšķirību veidošanu starp kaujējošajiem un nekaujošajiem, it īpaši pilsētvides situācijās.
Vaļības palielināšanās: Algoritmisko lēmumu pieņemšanas dehumanizētā daba var novest pie vardarbības eskalācijas un padarīt kara noziegumus iespējamākus.

Tiem, kuri vēlas padziļināti izpētīt tēmu par mākslīgā intelekta izmantošanu militārajās lietās un etiku modernajā karā, saistītajā jomā sekojošais saites uz domēnu var sniegt detalizētu informāciju: Starptautiskais Sarkanā Krusta komiteja. ICRC strādā plaši ar jautājumiem, kas saistīti ar starptautisko humanitāro tiesību, ieskaitot jauno tehnoloģiju izmantošanu bruņotos konfliktos. Lūdzu, ņemiet vērā, ka sniegtais URL ir uz galveno domēnu un tas ir pārbaudīts kā derīgs un attiecas uz tematu.

Privacy policy
Contact