Etinės dilemos dėl dirbtinio intelekto kariniuose veiksmuose

Silicon Valley susirūpinimas dirbtine intelektą (AI) keldžiančiais ginčais, į kas nors atsirado dėmesys – AI taikymas karinėse operacijose ir jo etinės implikacijos. Diskusija paprastai svyruoja tarp tų, kurie įspėja apie AI sukeliamą apokalipsę, ir tų, kurie skatina AI plėtros pagreitinimą, tačiau AI dabar naudojamas kare kelia nedelsiamų etinių rūpesčių.

Neseniai Izraelio gynybos pajėgos (IDF) pagal +972 Magazine ataskaitą teigiamai naudojo AI sistemas, tokioms kaip „Lavender”, siekiant nustatyti Gazos tikslus galimam veiksmui. Remiantis gausiu stebėjimo duomenų kiekiu, šioms AI algoritmams buvo pavedama pažymėti asmenis, tikėtina susijusius su ginkluotomis grupuotėmis. Ataskaita tvirtino, kad AI galėtų potencialiai optimizuoti procesą, nurodant ir įgyvendinant smūgį prieš šiuos tikslus, kelia nerimą.

Kuomet šios sistemos yra įgyvendinamos, jos minimizuoja žmogaus priežiūrą, nes kai kuriems IDF personalo pranešama, kad jų įsitraukimas sumažėjo iki kelių sekundžių per tikslą – esmingai sumažindamas žmogaus agentų nuomonių reikšmę. Nepaisant to, kad Izraelio Gynybos Pajėgos paneigia teiginius dėl AI sistemų naudojimo šiuo būdu, ataskaita akcentuoja AI vaidmens moderniame kare esmę – įrankis, kurį galingieji naudoja savo interesams tarnauti.

Kuomet diskusija tęsiasi apie būsimus AI grasinus, dabartiniai AI taikymo karinėse operacijose pavyzdžiai, ypač tie, kurie galėtų baigtis netekusiais ne ką mažiau civilinių gyvybių, reikalauja nedelsiamo dėmesio ir įvertinimo. Tokios situacijos skatina būtiną diskusiją apie moralinius įsipareigojimus, kurie ateina su AI integravimu į gyvenimo sritis, kuriose rizika yra letališkai didelė ir kurios implikacijos siekia už baimiškus doomsday scenarijus iki konkreti

Privacy policy
Contact