Den kontroversielle bruken av AI-database i målretting av angrep

Ny rapport framhever påstått israelsk bruk av AI-database for målvalg

En fersk rapport har belyst den påståtte bruken av en AI-drevet database av Israel for å velge mål i Gazastripen. Rapporten, publisert av +972 magazine og Local Call, hevder at verktøyet, kjent som «Lavender,» ble trent av israelske militære dataspesialister og gjennomsøkte enorme mengder overvåkningsdata og annen informasjon for å generere mål for drap.

Ifølge rapporten kan Lavender ha spilt en betydelig rolle i de tidlige stadiene av den nylige konflikten mellom Israel og Hamas, da Israel gjennomførte flere bølger med luftangrep mot Gazastripen. Verktøyet skal ha identifisert opptil 37 000 palestinere og deres hjem som mål for drap. Men de israelske forsvarsstyrkene (IDF) benekter eksistensen av en «dødsliste» og beskriver Lavender som en database ment for kryssreferanse av etterretningskilder.

Bruken av AI i målrettingsstrategier reiser bekymringer om omfanget av ødeleggelse og det høye antallet ofre i Gaza. Tidligere konflikter mellom Israel og Hamas involverte en mer menneskedrevet prosess for målvalg basert på etterretning og annen data. Imidlertid kan introduksjonen av Lavender under en periode med høy israelsk sinne og traumer etter et terrorangrep fra Hamas ha bidratt til et raskt og omfattende program for gjengjeldelse.

Vitnesbyrd fra israelske etterretningspersonell, innhentet av +972 magazine og Local Call, antyder at maskinens beslutninger ofte ble behandlet som et «gummistempelet» av menneskelig personale, til tross for kunnskapen om at systemet av og til merket enkeltpersoner med løse forbindelser til militantgrupper eller ingen forbindelse i det hele tatt. Dette kan forklare hvorfor Israel brukte «dumme» bomber, tunge og ukontrollerte våpen, mot påståtte mål valgt av Lavender, noe som resulterte i betydelig skade og tap av sivile liv. IDF-tjenestemenn ønsket angivelig ikke å bruke mer kostbare presisjonsstyrte ammunisjoner mot Hamas-operatører på juniornivå identifisert av programmet.

Bruken av Lavender og Israels målrettingsstrategier har vakt bred bekymring, med kritikere som argumenterer for at det er utfordrende å skille mellom gyldige militære mål og sivile i den tett befolkede Gazastripen. Menneskerettighetsorganisasjoner, inkludert Amnesty International, har oppfordret Israel til å bruke de mest nøyaktige våpnene tilgjengelig og til å minimere sivile tap.

IDF har svart på rapporten og uttalt at noen av påstandene som er fremsatt er grunnløse. De hevder at Lavender ikke er et kunstig intelligenssystem, men en database som brukes til kryssreferanse av etterretning for å bistå analytikere i målidentifikasjonsprosessen.

Det nylige hendelsen med en israelsk droneangrep på en World Central Kitchen-kolonne, som resulterte i døden til sju hjelpearbeidere, har ytterligere rettet oppmerksomheten mot Israels opptreden under konflikten. Som respons har president Biden bedt Israel om å endre kurs og ta skritt for å bedre beskytte sivile og lette hjelpetilbud. I tillegg har hundrevis av britiske advokater og dommere oppfordret regjeringen sin til å suspendere våpensalg til Israel for å unngå medvirkning til mulige brudd på internasjonal lov.

Selv om bruk av kunstig intelligens i militære operasjoner tilbyr potensielle fordeler, reiser det også etiske spørsmål om nøyaktigheten av målvalg og potensialet for sivile tap. I takt med at konflikter fortsetter å utvikle seg, er det avgjørende for nasjoner at bruk av AI-teknologi i krig følger internasjonal humanitær lov og begrenser skade på sivile.

FAQ

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact