Innovatiivne sõjapidamine: Iisraeli armee kasutab tehisintellekti Gaza konfliktis sihtmärkideks.

Üks uurimus on paljastanud, et Iisraeli sõjavägi on integreerinud tehisintellekti (AI) oma jätkuvas seitsmest kuust kestnud konfliktis Gazas, luues pretsedendi kui esimene sõjaväe jõud, kes kasutab AI-d surmavatel eesmärkidel. Iisraeli uurivad ajakirjanikud on avastanud operatsiooni “Lavender” – süsteemi, mis kogub ohtralt andmeid potentsiaalsete sihtmärkide tuvastamiseks.

AI koostab isikute likvideerimiseks nimekirju, kasutades sellist teavet nagu elukoht, liikumised, sotsiaalmeedia esinemine, fotod ja isegi isiklikud sidemed. Meron Rapoport, +972 Magazine peatoimetaja, kujutas protseduuri põhimõtteliselt loetelu loomisena, mis võrdub surmaotsusega.

Paljastus põhineb kuue Iisraeli Kaitseväe eliidi küberluureüksuse aktiivse liikme isiklikel kontodel, kes juhivad Lavenderi projekti. Sõjaväe kriteeriumid lubavad olulist hulka tsiviilohvreid, pidades standardsete sihtmärkide puhul vastuvõetavaks kuni 15–20, ning eskaleeruvaid ohvreid, potentsiaalselt sadades, kõrge prioriteediga sihtmärkide korral.

Kuigi AI ei vajuta päästikut, tekitab vajadus sõduritel tegutseda AI poolt genereeritud sihtmärkide suhtes sügavaid mureküsimusi. Sellised taktikad on meelitanud uurimist ja muret inimõiguste organisatsioonidelt ning ÜRO-lt, kuna suuremahulise AI kasutamise sõjalistes operatsioonidesga kaasnevad õiguslikud ja eetilised sõjapidamise standardite väljakutsed.

Arusaamine tehisintellektist sõjapidamises

Põhilised küsimused ja vastused:

Mis on “Operation Lavender”?
Operatsioon Lavender viitab sõjalisele algatusele, kus AI kasutatakse isikute nimekirjade koostamiseks võimalikuks likvideerimiseks erinevate andmete alusel, sealhulgas isikliku teabe ja sidemete alusel.

Kuidas AI isikuid sihikule võtab?
AI süsteem tuvastab potentsiaalsed sihtmärgid analüüsides mitmeid andmeallikaid, sealhulgas sotsiaalmeediat, elukohta, liikumisi, isiklikke sidemeid ja fotosid.

Millised on AI sellise kasutamisega seotud eetilised tagajärjed?
On toimunud oluline arutelu moraalsete tagajärgede üle, mis kaasnevad AI kasutamisega sõjalistel operatsioonidel, eriti seoses potentsiaalse suurema kõrvalkahjuga ja elu või surma otsuste delegeerimise eetikaga algoritmidele.

Põhilised väljakutsed ja vaidlused:

Moraalsed ja õiguslikud mured: AI kasutamine sihtmärkide valimisel sõjalistes operatsioonides on tekitanud arutelusid sõja rahvusvaheliste seaduste seaduslikkuse ja nende järgimise kohta. AI otsuste tegemise protsess ei oma keerulise inimliku otsustamise vajalikku komplekssust eetiliste kaalutluste sõjapidamise olukordades navigeerimiseks.

Vastutus: Kui AI süsteemid osalevad surmavate otsuste tegemises, muutub vigade või ebaseaduslike surmade eest vastutavate isikute määramine märksa keerukamaks.

Andmete usaldusväärsus: AI sihtmärkide täpsus sõltub suuresti süsteemi söödetud andmete kvaliteedist ja usaldusväärsusest, mis võiks olla manipuleeritav või vigane.

Eelised ja puudused:

Eelised:
– Suurenenud tõhusus: AI suudab töödelda ja analüüsida andmeid inimestest palju kiiremini, võimaldades potentsiaalselt kiiremas korras ohu tuvastamist.
– Täiustatud jälgimine: AI süsteemid saavad jälgida laia valikut allikaid ja läbi vaadata suuri andmehulki, et tuvastada mustreid või kahtlast käitumist.
– Riski vähendamine sõjaväelastele: AI kasutamine konfliktipiirkondades võib vähendada vajadust maavägede järele, vähendades sellega potentsiaalselt sõjalisi ohvreid.

Puudused:
– Kõrvalkahjud: On oht kõrgele tsiviilohvrite arvule, kuna AI ei pruugi suuta tõhusalt vahet teha võitlejate ja mittevõitlejate vahel.
– Eetilised dilemma: Elu ja surma otsuste delegeerimine algoritmidele tekitab sügavaid eetilisi küsimusi inimelu puutumatuse ja lahingureeglite osas.
– Turvariskid: Liigne sõltuvus AI-st võiks viia haavatavusteni, nagu häkkerite rünnakud või süsteemi rikked, mis võiksid ohustada sõjalisi operatsioone.

Kui olete huvitatud tehisintellekti sõjaliste rakenduste teemalise uurimistöö jätkamisest, võite külastada järgmist seotud linki:
Ühinenud Rahvaste Organisatsiooni Asepeasekretär Desarmeerimisega seotud küsimustes

On oluline märkida, et kui AI, mul ei ole reaalset juurdepääsu praegustele andmebaasidele ega internetile, nii et veenduge, et ülaltoodud URL-id on teie päringu ajal kehtivad ja asjakohased.

Privacy policy
Contact