Unikalus požiūris į Izraelio kariuomenės dirbtinio intelekto naudojimą kelyja rūpesčių

Per pastarąją tyrimą nustatyta, kad Izraelio kariuomenė naudoja dirbtinio intelekto (AI) technologiją, siekdama padėti nustatyti bombų taikinį Gazos Ruože. Ši atradimas, atskleistas +972 Magazine ir Local Call, iškėlė rimtų rūpesčių dėl AI tikslumo ir etinių padarinių, kuriuos gali sukelti stiprus AI naudojimas tokiais tikslais. Remiantis šešių Izraelio žvalgybos pareigūnų tvirtinimais, kurie dalyvavo minėtame projekte, AI pagrindu paremtas įrankis, pavadinimu „Lavender”, turėjo pranešamą 10% klaidų lygį.

Izraelio gynybos pajėgos (IDF) pripažino šio įrankio egzistavimą, tačiau paneigė AI naudojimą nustatant įtariamus teroristus. Vis dėlto jie pripažino, kad informacinės sistemos tarnauja kaip analitikų įrankiai taikinio identifikavimo procese. IDF pabrėžė savo įsipareigojimą minimalizuoti žalą civiliams, teigdami, kad analitikai turi nepriklausomai patikrinti ir patvirtinti nustatytus taikinius, vadovaujantis tarptautinėmis teisės normomis ir IDF direktyvomis.

Prieštaraujant IDF teiginiams, vienas programa dalyvavęs pareigūnas atskleidė, jog žmonių personalas dažnai atlikdavo minimalų vaidmenį ir tik apie 20 sekundžių vertindavo kiekvieną taikinį prieš suteikdami tvirtinimą oro atakoms. Tai kelia nerimą dėl potencialių civilinių aukų įvertinimo lygmens bei apsvarstymo lygio.

Tyrimas atliktas tuo metu, kai tarptautinis dėmesys Izraelio karinei kampanijai intensyvėja. Incidentai, kuriuose dalyvaujantys pajėgomis atlieka taikinius smūgius, galutinį rezultatą turintys kryžiavimo pagalbos darbuotojų mirtis, sulaukia didelio dėmesio. Gazos sveikatos ministerija pranešė apie daugiau nei 32 916 mirties Gazos užtvaroje dėl Izraelio užtvaros, dėl ko kyla humanitarinė krizė ir plačiai paplitusi badauja trečdalis šiaurės Gazos gyventojų, kaip pranešama Jungtinių Tautų.

Jurijus Abraomas, tyrimo autorius, anksčiau atkreipė dėmesį į Izraelio sunkų AI naudojimą generuojant taikinius su minimaliu žmogišku priežiūros lygiu. Izraelio kariuomenė vis dėlto neigia naudojanti AI sistemą identifikuoti teroristus, tačiau pripažįsta naudojanti duomenų bazę, siekdama pertikrinti informacijos šaltinius apie karinius operatyvus teroristų organizacijose.

Tyrimas taip pat atskleidė, kad Izraelio kariuomenė sistemiškai vykdo naktinius antpuolius prieš taikinius gyvenamuosiuose namuose, dažnai baigiantis nekaltų palestiečių mirtimis, įskaitant moteris ir vaikus. Be priežiūros „niurki” bombas, kurios gali padaryti reikšmingą nukrypimą nuo taikinio, kai kuriais atvejais jas renkasi armija atakuoja daugiausia numanomus jaunųjų kovotojų reikalus.

Remiantis CNN pranešimu, beveik pusė sprogmenų, numetamų Gazą per neseniai vykusią kampaniją, buvo „niurkios” bombos. Tai kelia didesnę grėsmę civiliniams gyventojams, ypač tankiai apgyvendintuose kaip Gaza rajonuose. IDF tvirtina, kad smūgiai vykdomi tik tada, kai numatoma neproporcinga žala civiliams palyginti su kariniu pranašumu ir dedamos pastangos minimalizuoti žalos civiliams lygį.

Izraelio kariuomenės taikinio proceso AI naudojimas kelia kritinių etinių klausimų. Reikia didesnės skaidrumo, atskaitingumo ir žmogiško dalyvavimo sprendimų priėmimo procese, siekiant užtikrinti nekaltų gyvybių apsaugą. Tarptautinė bendruomenė privalo įsitraukti į dialogą ir dėmesį, kad išspręstų šiuos rūpesčius ir apsaugotų humanitarinės teisės principus.

Dažnai užduodami klausimai:

Kas yra dirbtinis intelektas (AI)?

Dirbtinis intelektas (AI) apima inteligentų mašinų kūrimą, gebančių atlikti užduotis, kurios paprastai reikalauja žmogiškosios inteligencijos, tokios kaip vaizdų suvokimas, kalbos atpažinimas, sprendimų priėmimas ir problemų sprendimas.

Kas yra „niurkios” bombos бездушка?

„Niurkios” bombos бездушка yra įprasti sprogmenys, kurie neturi valdymo sistemų ir remiasi gravitacija savo trajektorijai. Šios bombos turi didesnę tikimybę sukelti neproporcingą žalą ir pakenkti civiliams dėl jų netikslumo pobūdžio.

Koks yra Izraelio kariuomenės taikinio proceso tikslas?

Izraelio kariuomenės taikinio proceso tikslas yra nustatyti ir atakuoti taikinius, susijusius su teroristinėmis organizacijomis, siekiant sutrikdyti jų veiklą ir užtikrinti nacionalinį saugumą. Tačiau iškilę rūpesčių dėl taikinio identifikavimo tikslumo ir potencialinių žalos civiliniams gyventojams.

Šioje žinutėje labiau pabrėžiamos etinės problemos, atsirandančios naudojant dirbtinį intelektą (AI) Izraelio kariuomenės taikinio procese, sukurta nemažai rūpesčių ne tik dėl AI naudojimo tikslumo ir etinių padarinių, bet ir dėl galimos žalos civiliams gyventojams. Šis tyrimas atliekamas tuo metu, kai tarptautinis dėmesys Izraelio karinei kampanijai tampa vis intensyvesnis.

Šiam straipsniui panaudotos šaltiniai: Brookings Institution, Arms Control Association, Al Jazeera, United Nations.

Privacy policy
Contact