Kontroversiškas „Levandas”: Izraelio dirbtinio intelekto operacijos Gazos Pergalėje

Su Amerikos palaikymu Izraelio gynybos pajėgos (IDF) pranešimai teigia, kad naudoja dirbtinio intelekto sistemą, vardu „Levandas”, atliekant veiksmus Gazos Ruože, dramatiškai išplėtojant savo stebėjimo ir taikymo praktikas. „Levandas”, naudodamas mašininio mokymosi algoritmus, apdoroja didelį kiekį duomenų apie apie 2,3 mln. Gazos gyventojų, kiekvienam žmogui priskirdamas balą nuo 1 iki 100, kuris galutinai lemia jų prioritetų kaip taikinio nustatymą.

„Levando” funkcionalumas yra ginčų debate, nes jo algoritmas, kaip tvirtina IDF vyriausieji, klaidingai nustatė tūkstančius nesusijusių civilių. Šie asmenys dabar netinkamai priskiriami kartu su ginkluotais kovotojais. „Levandas” toliau klasifikuoja galimus taikinius į dvi pagrindines grupes: ‘žmonių taikinius’, paprastai tai yra komandos lyderiai, ir ‘šiukšlinius taikinius’, atsiliekančius aukštesnėje kariuomenės grandyje. Pastaroji grupė dažnai naudojama naudojant nenukreiptus raketus, sugebančius padaryti didelį žalos nuosavybei ir neišvengiamai civiliams nuostolius.

Sistema veikia be žmogaus priežiūros, kuri veda prie automatinio masinių atakų prieš palestiniečius Gazos Ruože. Šis požiūris iškėlė didelių etinių rūpesčių, nes nustatyti taikiniai dažnai puolami jiems net, kai jie yra namuose, naktį, kartu su savo šeimomis. Todėl ši praktika gali lemti daugybės nenumatytų mirties atvejų, taip pat vadinamų „šalutinių nuostolių”.

Izraelio žurnalistas ir taikos aktyvistas Yuvalas Abrahamas atliko išsamesnius „Levando” tyrimus, pabrėždamas šių AI paremtų strategijų sunkias pasekmes. Abrahamas nustatė, kad aukšto rango pareigūnai dažnai praleidžia išsamų tikslingų asmenų nagrinėjimą, pasikliaudami sistemos rekomendacijomis ir paliekant tikrinimo procesą algoritmo rankose, kuris gali būti kupinas klaidų.

Abrahamaus parengti pranešimai ragina „Levandu” įgyvendinti veiksmus išnagrinėti Teisingumo Tarptautiniame Teisme, argumentuodami jo klasifikavimą kaip galimą valstybės terorizmą ir nusikaltimus prieš žmoniją. Kai riba tarp automatizuoto karo ir atsakomybės už kariuomenės veiksmus tampa neaiški, etika susijusi su AI kovos zonose, tokiose kaip Gazos Rūmai, ir toliau skatina svarbią tarptautinę diskusiją.

Svarbios klausimai ir atsakymai:

1. Kokios yra dirbtinio intelekto, kaip „Levando”, naudojimo kare operacijose pasekmės?
AI naudojimas kare kelis svarbius etikos, teisinius ir atskaitomybės klausimus. AI sistemos, tokioms kaip „Levandas”, gali apdoroti didžiulį duomenų kiekį, kad nustatytų ir prioritetizuotų taikinius, bet jos gali ir klysti, galimai leisdamos civilių nuostolius ar pažeidimus tarptautinės teisės.

2. Kaip „Levandas” skiria tarp kovotojų ir civilių?
Teigiama, kad „Levandas” priskiria balą individams ir galbūt juos klasifikuoja kaip ‘žmonių taikinius’ ar ‘šiukšlinius taikinius’. Tačiau ši klasifikacija sukėlė klaidų, kuomet civilius asmenis, kaip teigiama, buvo nustatyta kaip kovotojus, keldama rūpesčių dėl algoritmo tikslumo ir diskriminacijos.

3. Kokie yra svarbiausi iššūkiai ar ginčai, susiję su „Levandu”?
Pagrindiniai iššūkiai apima galimybę klaidingai nustatyti, žmogiškojo priežiūros stoką, vedantį prie automatinio puolimų be pakankamų patvirtinimų ir moralines praktiškai deleguoti gyvybės ir mirties sprendimus mašinoms. Be to, tokių sistemų naudojimas gali būti laikomas valstybės organizuotu smurtu, jei tai sukelia civilių nuostolius, kylant klausimams apie atitikimą tarptautinei humanitarinei teisei.

Privalumai ir trūkumai:

Privalumai:
– Padidinta efektyvumas apdorojant duomenis ir nustatant potencialius taikinius.
– Gebėjimas veikti nuolat be nuovargio, priešingai nei žmogiškieji operatoriai.
– Galimas strateginis pranašumas greitai prisitaikant prie besikeičiančių situacijų terenu.

Trūkumai:
– Rizika klaidingai nustatyti civilius kaip kovotojus, vedant prie netinkamo sužalojimo ar mirties.
– Atskaitomybės ir skaidrumo trūkumas priimant sprendimus.
– Etiniai rūpesčiai dėl karo žmogiškumo mažinimo ir potencialūs tarptautinės teisės pažeidimai.
– Galimas žmogiškosios priežiūros ir moralinės atsakomybės erozija kariuomenės veiksmuose.

Jei norite gauti daugiau informacijos apie dirbtinio intelekto etiką ir reguliavimą kare kontekstuose, galite aplankyti šias oficialias svetaines:

Jungtinės Tautos
Tarptautinė Raudonojo Kryžiaus Komitetas
Amnesty International
JAV Gynybos Departamentas

Atkreipkite dėmesį, kad nors šie nuorodos veda į organizacijų pagrindines svetaines, kuriose galima rasti informacijos susijusios su dirbtinio intelekto naudojimu kariuomenės operacijose, konkrečių informacijų apie „Levandą” ir jo naudojimą Izraelio gynybos pajėgų galimai tiesiogiai šiose svetainėse nebūtų.

Privacy policy
Contact