Realiųjų AI karų tikrovė: Atskleidžiant neplanuotas pasekmes

Neseniai Izraelio kariuomenės naudojimas dirbtinio intelekto (AI) sistemos „Levanda” generuoti galimų oro antpuolių Gazos taikinių sąrašų attraukė dėmesį į kariuomenės AI pasekmes. Pagal nevyriausybinės organizacijos +972 Magazine paskelbtą pranešimą, sistema, žinoma kaip „Levanda”, buvo naudojama kartu su kitomis AI sistemomis taikyti ir nužudyti įtariamuosius kovotojus, dėl to kentėjo daug civilių.

Nors Izraelio gynybos pajėgos paneigia daugumą pranešime esančių teiginių, teigdamos, kad „Levanda” yra ne AI sistema, o duomenų bazė, skirta kryžminių intelektinių šaltinių sąsajoms, kiti šaltiniai patvirtina AI naudojimą Izraelio kariuomenės operacijose. 2021 m. „Jerusalem Post“ pranešė, kad Izraelis naudojo mašinų mokymo sistemas nustatyti taikinius konflikto su Hamasu metu. Be to, ankstesnėje +972 ataskaitoje minimas AI sistema „Habsora”, kuri automatiškai nustato galimus kovotojų pastatus ir objektus bombarduoti.

AI potencialas kariuomenėje nėra ribotas tik Izraeliu. Tokios šalys kaip Jungtinės Valstijos ir Kinija taip pat investuoja į AI sistemas kariuominės tikslais. Šalininkai tvirtina, kad AI gali padėti greitesnių sprendimų priėmimui, didesnei tikslumui ir mažesniam civilių žuvimui. Tačiau kyla pavojus dėl žmogiškojo priežiūros stokos ir galimų klaidų AI sukurtose taikinių srityse.

Neseniai paskelbtas +972 pranešimas teigia, kad „Levanda” automatizuoja taikinio identifikavimo procesą, tačiau gali turėti laisvesnius kriterijus ir žemesnius įrodymų standartus, dėl to klaidos nutinka maždaug 10% atvejų. Pranešimas taip pat rodo, kad taikiniai yra bombarduojami jų namuose kaip pirmasis pasirinkimas, dėl to kyla civilinių aukų.

Etiškumo ir teisinės problemos, susijusios su kariuomenės AI, iš esmės buvo ignoruojamos. Šiuo metu nėra visuotinai priimtų ar teisiškai įpareigojančių taisyklių, reguliuojančių jos naudojimą. Tačiau buvo kai kurių pažangų dėl šių problemų sprendimo. Jungtinės Tautos jau daugiau nei dešimtmetį diskutuoja dėl „mirtinas autonominis ginklas” naudojimo, o Jungtinių Tautų Generalinė Asamblėja neseniai balsavo už projektinę rezoliuciją, nurodančią, kad algoritmai neturėtų visiškai kontroliuoti sprendimų dėl žudymo. JAV taip pat išleido deklaraciją dėl atsakingo karinio AI ir autonomijos naudojimo, kuri sulaukė paramos iš daugelio šalių.

Nepaisant šių pastangų, tarptautiniai reglamentai dėl kariuomenės AI naudojimo sunkiai susitvarko su sparčia technologijos pažanga. Kariuomenės visame pasaulyje priima AI sistemas karui, neplanuotos pasekmės ir galimai humanitarinė žala tampa vis aiškesnė.

Pažadas dėl precizinio karo, įgalinto AI, dar nebuvo visiškai įgyvendintas. Pranešimai apie AI sistemų naudojimą Gazos rodo algoritmų naudojimo tikslinme sprendimuose ribas ir neplanuotas pasekmes. Svarbu spręsti etikos ir moralinius dilemas susijusias su karinio AI, užtikrinant, kad būtų sukurtas žmogiškasis priežiūros mechanizmas ir tarptautiniai reglamentai, siekiant užkirsti kelią šios galingos technologijos piktnaudžiavimui.

Dažnai užduodami klausimai

1. Kas yra „Levanda”?
„Levanda” yra dirbtinio intelekto (AI) sistema, kuria naudojasi Izraelio kariuomenė generuoti galimų oro antpuolių Gazos taikinių sąrašus.

2. Ar AI naudojimas kariuomenėje apribotas tik Izraeliu?
Ne, kitos šalys, pvz., Jungtinės Valstijos ir Kinija, taip pat investuoja į AI sistemas kariuominės tikslais.

3. Kokios yra susirūpinimą keliačiosios kariuomenės AI atžvilgiu?
Yra susirūpinimų dėl žmogiškojo priežiūros trūkumo, galimų klaidų AI sukurtose taikinių srityse ir etiškų bei moralinių klausimų, susijusių su AI sistemų naudojimu karuose.

4. Ar yra tarptautiniai reglamentai, reglamentuojantys kariuomenės AI naudojimą?
Šiuo metu nėra aiškių, visuotinai pripažintų ar teisiškai įpareigojančių taisyklių kariuomenės AI atžvilgiu. Yra pastangų, siekiant spręsti šias problemas, kurių imasi Jungtinės Tautos ir kai kurios šalys.

5. Kokios yra neplanuotos pasekmės, kai sprendimai taikinių srityse yra grindžiami tik AI?
Pranešimai rodo, kad algoritmų naudojimas taikinių sprendimuose gali sukelti klaidas, laisvesnius kriterijus ir žemesnius įrodymų standartus, dėl to kyla civilinės aukos ir humanitarinė žala.

The source of the article is from the blog macholevante.com

Privacy policy
Contact