Dirbtinis intelektas kelia etinių klausimų Gazos konflikte

Trajektoriją: lt. Turinys:

Daugybėje tragic Airmens Rafah mieste, esančiame Gazos pietų dalyje, įvyko pražūtingas įvykis: 17 vaikų ir dvi moterys prarado savo gyvybes, palikdamas už saves susigraudinusią bendruomenę ir neatsakytų klausimų seriją dėl Izraelio gynybos pajėgų pasirinkimų, kuriuos jie padarė.

Paaiškėjo, kad per pastarąjį konfliktą 2023 metų vasario mėnesį Izraelio karinė jėga vis labiau priklausė Dirbtinis intelektas (AI) sistemoms nustatyti savo smūgių taikinius. Šis atskleidimas kelio susirūpinimą dėl galimo atsitiktinio žalos ir etinių AI karo srityje implikacijų.

AI sistema, žinoma kaip „Levandas”, vadinamas sukūręs taikinį sąrašą iš daugiau nei 30,000 asmenų Izraelio pajėgoms, tvirtinimą, kurį karinė jėga paneigė. Vis dėlto tyrimai izraelio žurnalistų rodo, kad prasidėjus konfliktui karinė jėga pirminėje vietoje naudojo AI sistemas, prieš pradedant žemės operacijas, sutelkdamos dėmesį į Hamasą ir Palestinos islamo džihado kovotojų sunaikinimą iš oro.

Stanfordo universiteto tyrimas rodo, kad AI gali parodyti agresyvesnį polinkį nei žmonių vadovai, sustiprindami kritikų teiginius dėl galimybės AI neturėti tikro objektyvumo. Jie tvirtina, kad algoritmai atspindi jų kūrėjų nuostatas ir gali nesiūlyti pagerinimų palyginti su žmogaus sprendimų priėmimu.

Izraelio kariuomenės atlikto audito metu, pranešama, kad Lavandas turėjo 10 proc. klaidų rodiklį. Ši statistika reiškia, kad už kiekvieną tūkstantį žmonių žuvo apie šimtą galimai nekaltų civilių, kiekį, kurį kariuomenė, akivaizdžiai, laikė priimtinu.

Pasikeitimai kariuomenės bendruose kovos nurodymuose galėjo vesti prie mažiau tikslių ginklų naudojimo, atnešdami strategijos poslinkį nuo taikinių tikslių smūgių prie platesnių atakų. Lyginant su praeitais konfliktais, šis požiūris atrodo sukėlęs mažesnį tikslumą ir didesnį civilinių aukų skaičių.

Debatai dėl AI vaidmens kare išlieka aktyvi ir ginčytina tema, o trunkantis Izraelio-Palestinos konfliktas tarnauja kaip šių sudėtingų etinių klausimų fokusu. Tarptautiniai reguliavimai, kurie reglamentuoja karo elgesį, dar nepaderinti su technologijos pažanga, likdami neatsakyti klausimai apie AI sistemų kaip „Levandas” naudojimo ir reguliavimo globale karo operacijose.

Etinės AI implikacijos karyboje yra pagrindinė ginčų sritis ir nėra apsiribojanti šiuo konkretų konfliktu. Svarbus etinis klausimas, kylantis, ar veiksmingas AI kaip „Levandas” įvedimas kariuomenės operacijose gerbia tarptautinės humanitarinės teisės skirtumo ir proporcingumo principus. Šie principai reikalauja skirti tarp karių taikinių ir civilių ir užtikrinti, kad atsitiktinis žala civiliams nėra per didelė, lyginant su tikėtinu karo nauda.

Kitas svarbus etinis iššūkis yra taip vadinamasis „atviroje vietoje daryti atitikties spraga”, kuri gali kilti, kai autonominės sistemos, valdomos AI, atlieka veiksmus, kurių pasekmė netikėta žala. Atsakomybės klausimai tampa sudėtingi: jei AI sistema klaidingai nustato civilius kaip taikinius, kas atsakingas už klaidą? Tai yra kariuomenės personalas, kuris įdiegė AI, plėtotojai, kurie sukūrė algoritmą, ar vadovai, kurie patvirtino jo naudojimą?

Be to, kritikai teigia, kad priklausomybė AI galėtų nustumti karių asmenų jautrumą karo sąnaudoms, galbūt sumažinant rimtumą, su kuriuo priimami sprendimai dėl smūgių. Ginčas taip pat siejasi su susirūpinimu, kad AI negali suprasti karo viso konteksto, įskaitant žmogiškus ir aplinkos veiksnius, kurių gali būti neįsivaizduojama, tačiau yra būtini etiniems sprendimams karyboje.

Kita vertus, AI šalininkai kariuomenės taikinių dėmesį skiria galimoms privalumams, tokias kaip gebėjimas greičiau tvarkyti didžiulius kiekius duomenų nei žmonės, potencialiai vedantis prie geriau informuotų sprendimų. Taip pat pateikiamas argumentas, kad AI galėtų sumažinti riziką kariams, atliekant užduotis, kurias kitaip reikėtų žmogaus buvimui pavojingose aplinkose.

Trūkumai apima AI sistemų emocijų ir moralinio vertinimo stoką, potencialius programavimo nuostatas, turinčius įtakos taikymo sprendimams, ir riziką dėl gedimų ar hakavimo, kurie gali lemti katastrofines pasekmes.

Pagrindiniai iššūkiai ir ginčai, susiję su šia tema, yra:
– Užtikrinti, kad AI sistemos laikytųsi tarptautinės humanitarinės teisės.
– Spręsti „atviroje vietoje padarytos atitikties spragą” dėl AI veiksmų karo metu.
– Svarbiausiai, užtikrinti, kad sumažėtų rizika kariuotoms pajėgoms, kartu su moraliniais ir etiniais sprendimais.
– Išvengti programavimo nuostatų įkibimo AI sistemoms.
– Valdyti riziką, kad AI sistemos bus hakavimas ar apgavimas kovos sąlygomis.

Kadangi AI naudojimas kariuomenės praktikoje tęsiasi plečiantis, gali būti būtina tarptautinei bendruomenei nustatyti naujus reglamentus ar pataisytas egzistuojančias, kad tinkamai būtų įvertinti šie iššūkiai ir išvengta galimo AI technologijų naudojimo piktnaudžiavimo konfliktuose.

Tiems, kurie domisi platesnėmis diskusijomis ir informacija apie AI etikos ir politikos klausimus, žemiau pateikti susiję nuorodos gali būti naudingi:

Jungtinės Tautos sekant tarptautinę diskusiją apie AI ir karinius reguliavimo klausimus.
Tarptautinis Raudonojo Kryžiaus Komitetas informacija apie humanitarinį požiūrį ir ginkluotų konfliktų įstatymus.
Stanfordo universitetas akademiniai tyrinėjimai apie AI, įskaitant jos naudojimą karinėse operacijose.
Al Jazeera kaip naujienų šaltinis Izraelio-Palestinos konflikto ir jo implikacijų aprašymui.
JAV Gynybos departamentas politika dėl AI ir etiniai nurodymai dėl kariuomenės naudojimo.

Turėkite omenyje, kad pateikta informacija kyla ne iš pateikto straipsnio, bet yra aktuali plačioms etinėms klausimams dėl AI naudojimo konflikto situacijose.

Privacy policy
Contact