AI tehnoloģiju ētika karadarbībā: Izskatot Izraēlas militārās kontroversiālās mērķēšanas sistēmu

Nesenajos ziņojumos atklāts, ka Izraēlas militārie spēki ir izmantojuši nepazīstamu un nestestētu mākslīgā intelekta veidotu datubāzi, lai identificētu mērķus savai bombardēšanas kampaņai Gazā. Šī atklāsme ir izraisījusi bažas cilvēktiesību un tehnoloģiju ekspertu vidū, kuri argumentē, ka šādas mākslīgā intelekta izmantošana varētu potenciāli veidot “karabiedru noziegumus”. Lai gan ir būtiski risināt šīs bažas un izpētīt šīs tehnoloģijas etisko aspektu, ir svarīgi piedāvāt svaigu skatījumu uz šo tēmu.

AI-asistētais mērķēšanas sistēma, pazīstama kā Lavender, pēc ziņām tika izmantota Izraēlas armijas, lai izolētu un identificētu potenciālos bombardēšanas mērķus starp tūkstošiem palestīniešu. Saskaņā ar nenosauktiem Izraēlas izlūkdienestu darbiniekiem, Lavender kļūdu īpatsvars ir aptuveni 10 procenti. Neskatoties uz šo kļūdu īpatsvaru, apgalvots, ka Izraēlas armija ir izmantojusi šo sistēmu, lai paātrinātu indivīdu, kas saistīti ar Hamas, identifikāciju un bombardēšanu.

Lai saprastu situācijas nopietnību, ir būtiski atzīt nozares ekspertu perspektīvu. Marka Ovna Džonsona, vidusāzijas studiju un digitālo humanitātēs palīgprofesora, apliecina, ka Izraēlas armijas nesavērtīgu AI sistēmu izmantošana izraisa bažas par lēmumu pieņemšanas procesiem, kas attiecas uz civiliedzīvotāju dzīvībām. Tomēr svarīgi norādīt, ka šis paziņojums ir parafrāzēts no oriģinālā avota, un izteikumu par “AI-asistētu genocīdu” ir aizstājusi vairāk aprakstoša frāze.

Izraēlas publikācijas ir ziņojušas, ka šādas metodes izmantošana ir rezultējusi nozīmīgā civiliedzīvotāju skaita upuru Gazā. Tomēr Izraēlas militārā puse apgalvo, ka Lavender nav neatkarīga sistēma, bet gan datubāze, kas veidota, lai krustreferencētu izlūku avotus, lai iegūtu jaunāko informāciju par militāro darbinieku, kas saistīti ar teroristu organizācijām. Reaģējot uz kritiku, Izraēlas armija ir norādījusi, ka tās analītiķiem ir jāveic neatkarīgi pārbaudes, lai nodrošinātu, ka identificētie mērķi atbilst starptautiskajai tiesībām un attiecīgajiem ierobežojumiem.

Kamēr oriģinālais raksts citēja AI ekspertu, kurš pauda bažas par starptautisko humanitāro tiesību pārkāpumu, ir svarīgi atzīmēt, ka šis ir teorētisks skatījums un nekādi tieši paziņojums. Toby Walsh, AI eksperts uz Jaunsvelles universitātes, iesaka, ka AI izmantošana mērķēšanas vajadzībām rada izaicinājumus attiecībā uz nozīmīgu uzraudzību un atbilstību likumdošanas pamatnostādnēm.

Ziņojumā tiek izceltas arī apgalvojumi par to, ka Izraēlas armija sankcionējusi būtisku civiliedzīvotāju skaita nogalināšanu konkrētos gadījumos, it īpaši vadošo Hamas pārstāvju mērķēšanā. Šie apgalvojumi, ja tie ir patiesi, var tikt uzskatīti par neproporcionālu uzbrukumu un klasificēti kā karabiedru noziegumi. Ir svarīgi sagaidīt turpmāku izmeklēšanu un šo detaļu pārbaudi, lai noskaidrotu to autentiskumu.

Turklāt rakstā tiek minēta spekulācija, ka Izraēla cenšas pārdot šīs AI rīkus ārvalstu valdībām. Antonijs Lovenšteins, austrāliešu žurnālists un autors, iesaka, ka valstis, kas pauž iebildumus pret Izraēlas darbībām Gazas joslā, tomēr var izrādīt interesi par šādu tehnoloģiju iegādi. Lai gan šis paziņojums sniedz ieskatu par iespējamajām turpmākajām attīstībām, ir svarīgi to uztvert kā spekulāciju, līdz parādās konkrēti pierādījumi.

Uzņēmēju, politikas veidotāju un starptautisko iestāžu ir svarīgi pētīt šīs sekas un nodrošināt, ka AI tehnoloģiju attīstība un izmantošana karadarbībā atbilst ētiskiem un tiesiskiem standartiem.

Bieži uzdotie jautājumi

The source of the article is from the blog bitperfect.pe

Web Story

Privacy policy
Contact