Kontroversijos tema „Lašai“: Izraelio veiksmai Gazos sektoriuje, valdomi dirbtinio intelekto

Su JAV paraiška, Izraelio gynybos pajėgos (IDF), pasinaudoję Jungtinių Valstijų pritarimu, pranešta naudojančios dirbtinio intelekto sistemą pavadinimu „Lavender” atliekant operacijas Gazos ruože, dramatiškai plėtojančią savo stebėjimo ir taikymo praktikų apimtį. Naudojant mašininio mokymo algoritmus, Lavender apdoroja didelį duomenų kiekį apie apie 2,3 mln. Gazos gyventojų, kiekvienam žmogui priskiriant įvertinimą nuo 1 iki 100, kuris galutinai įtakoja jų prioritizavimą kaip taikinys.

Lavender funkcionalumas yra esminis ginčų objektas, nes pagal IDF inauguracijos planą tūkstančiai nepriskiriamų civilių yra klaidingai identifikuoti, kaip tvirtina IDF operatoriai. Šie asmenys dabar netinkamai kategorizuojami kartu su ginkluotais kovotojais. Lavender toliau klasifikuoja potencialius taikinius į dvi pagrindines grupes: ‘žmogiškus taikinius’, paprastai tai yra komandų statuso asmenys, ir ‘šiukšlių taikinius’, tai žymint žemesnio rango karius. Pastarųjų grupė dažnai susiduria su neišlydžių raketomis, sukeliančiomis didelių nuosavybės žalų ir neišvengtinų civilių aukų.

Sistema veikia be žmogaus priežiūros, vesti nežmonės masinių atakų Palestiniečiams Gazoje modelis. Šis požiūris kelia ženkliai etinių rūpesčių, kadangi nurodyti taikiniai dažnai bandoma namuose, naktį, drauge su jų šeimomis. Dėl šios praktikos gali atsirasti daugybė nepageidaujamų mirties atvejų, taip pat žinomų kaip „šoniniai nuostoliai”.

Izraelio žurnalistas ir taikos aktyvistas Yuvalas Abraomas atliko išsamias Lavender tyrimas, išryškinant šių su AI valdomų strategijų sunkias pasekmes. Abraomas atskleidė, kad aukšto rango pareigūnai dažnai apeina tiksliai išnagrinėti taikinio individualių asmenų, atidedant sistemai pateiktus pasiūlymus ir paliekant patvirtinimo procesą algoritmo rankose, kuris gali būti kupinas paklaidų.

Abraomo parengti pranešimai palaiko veiksmus, palengvintus Lavender, išnagrinėti Tarptautinį Teisingumo Teismą, ginant jo klasifikaciją kaip potencialią valstybės terorizmą ir nusikaltimus prieš žmoniją. Kadangi riba tarp automatizuotų karų ir sąskaitingų karinių veiksmų tamsėja, etiniai kariuomenės AI kovos zonose kaip Gazoje tęsia kritinį tarptautinį diskursą.

Svarbūs klausimai ir atsakymai:

1. Kokie yra dirbtinio intelekto naudojimo karinėse operacijose „Lavender” padariniai?
Dirbtinio intelekto naudojimas karinėse operacijose kelia svarbių etinių, teisinių ir atskaitomybės klausimų. AI sistemos, tokiomis kaip Lavender, gali apdoroti didelį kiekį duomenų, kad identifikuotų ir prioritizuotų taikinius, bet jos taip pat gali padaryti klaidų, galimai sukeliant civilių nuostolius ar pažeidimus tarptautinės teisės.

2. Kaip „Lavender” skirtumas tarp kovotojų ir civilių?
Pranešama, kad Lavender priskyria taikiniams įvertinimą, galbūt juos klasifikuodamas kaip ‘žmogiškus taikinius’ ar ‘šiukšlių taikinius’. Tačiau ši klasifikacija sukėlė klaidų, kur civiliai buvo aibėje tapatinami kaip kovotojai, keldami klausimus dėl algoritmo tikslumo ir diskriminacijos.

3. Kokie yra pagrindiniai iššūkiai ar kontroversijos, susijusios su „Lavender”?
Pagrindiniai iššūkiai apima klaidingų identifikavimo galimybę, žmogaus priežiūros trūkumą, automatinius atakas be pakankamo patikrinimo patvirtinimo bei moralinius sprendimų delegavimo mašinoms pasekmes. Be to, tokių sistemų naudojimas gali būti laikomas valstybės paremtu smurtu, jei jos leidžia civiliams patirti nuostolius, keliant klausimus dėl laikymosi tarptautinės humanitarinės teisės.

Privacy policy
Contact