Israelio naudojama dirbtinio intelekto duomenų bazė ir konflikto padariniai Gazos ruože

Naujas pranešimas iškėlė klausimą dėl teigiamo Izraelio naudojimo dirbtinio intelekto duomenų bazės tikslų parinkimui Gazos ruože. Pranešime, paskelbtame žurnalu +972 ir Local Call, teigiama, kad įrankis, vadinamas „Lavender“, buvo apmokytas Izraelio kariuomenės duomenų mokslininkų ir peržvelgė didelį kiekį stebėjimo duomenų ir kitos informacijos, siekiant parengti asmenų, kuriuos reikia nužudyti, sąrašą.

Remiantis pranešimu, „Lavender“ gali būti vaidino svarbų vaidmenį neseniai vykusio konflikto tarp Izraelio ir Hamaso pradžioje, kai Izraelis įvykdė daugybę oro antpuolių Gazos ruože. Teigiama, kad įrankis buvo nustatęs iki 37 000 palestiniečių ir jų namų kaip potencialius atakuoti taikinius. Tačiau Izraelio gynybos pajėgos neigia „nužudymo sąrašo“ egzistavimą ir aprašo „Lavender“ kaip duomenų bazė skirtą sąveikai su įvairiais informacijos šaltiniais.

Dirbtinio intelekto naudojimas taikinių parinkimo strategijose kelia susirūpinimą dėl sunaikinimo masto ir didelio civilių aukų skaičiaus Gazos ruože. Ankstesnius Izraelio ir Hamaso konfliktus ženklino labiau žmogiškai valdomas taikinių parinkimas remiantis žvalgyba ir kita informacija. Tačiau „Lavender“ įvedimas laikotarpiu, kai Izraelis jautė didelį pyktį ir traumą po Hamaso teroristų atakų, galėjo prisidėti prie greito ir plačiai taikytinos keršto programos.

Izraelio žvalgybos pareigūnų parodymai, gauti žurnalų „+972“ ir „Local Call“, rodo, kad mašinos sprendimai dažnai buvo laikomi žmogaus personalo “degalu”, nepaisant žinių, kad sistema kartais pažymėdavo asmenis, esančius silpnų ryšių su ginkluotaisiais grupuotėmis ar visiškai be ryšio. Tai galėtų paaiškinti, kodėl Izraelis naudojo mažiau tikslius „durnus“ bombas potencialiems „Lavender“ pažymėtiems taikiniams, dėl ko padaryta didelė žala ir civilinių gyvybių praradimų. Pranešama, kad IDF pareigūnai neketino švaistyti brangesnių preciziškai nukreiptų ginklų mažesnio lygio Hamaso operatyviems pareigūnams, kuriuos nustatė programa.

„Lavender“ naudojimas ir Izraelio taikinių strategijos sukėlė plačius susirūpinimus, kritikai teigia, kad sunku skirti tarpusavyje teisėtus karinius taikinius ir civilius miesto gyventojus tankiai apgyvendintoje Gazos ruože. Žmogaus teisių organizacijos, įskaitant Amnesty International, paragino Izraelį naudotis tiksliausiais prieinamais ginklais ir minimalizuoti civilinių aukų skaičių.

IDF atsakė į pranešimą, teigdami, kad kai kurios pateiktos kaltinimai yra pagrįsti neturinčiomis pagrindo. Jie tvirtina, kad „Lavender“ nėra dirbtinio intelekto sistema, o duomenų bazė, naudojama informacinių šaltinių sąveikai, kad paaiškintų analitikams taikinių pažymėjimo procesą.

Neseniai įvykęs incidentas, susijęs su Izraelio besiklojančiu besiskundžiančiu tiesioginės pagalbos energiją „World Central Kitchen“ konvoju, kuris baigėsi septynių pagalbos darbuotojų mirtimi, patraukė dar didesnį dėmesį į Izraelio elgesį konflikto metu. Atsakant į tai, Prezidentas Baidenas kreipėsi į Izraelį patvirtinti naują kursą ir imtis priemonių, kad geriau apsaugotų civilius ir palengvintų pagalbos teikimą. Be to, šimtai britų advokatų ir teisėjų paragino savo vyriausybę sustabdyti ginklų tiekimą Izraeliui, kad išvengtų dalyvavimo galimuose tarptautinės teisės pažeidimuose.

Nors dirbtinio intelekto naudojimas karinėse operacijose suteikia potencialių pranašumų, jis taip pat kelia etinių klausimų dėl taikinių parinkimo tikslumo ir galimų civilių aukų. Kadangi konfliktai tęsiasi, valstybės privalo užtikrinti, kad dirbtinio intelekto technologijos karuose laikytųsi tarptautinės humanitarinės teisės ir minimalizuoja žalą civiliams.

DUK

The source of the article is from the blog zaman.co.at

Privacy policy
Contact