En ny tankegang om Israels bruk av AI i Gaza-konflikten

I konflikten mellom Israel og Hamas i Gaza har ødeleggende luftangrep fra israelske styrker blitt en nesten daglig foreteelse. Disse angrepene har ofte resultert i ødeleggelsen av hjemmene til fremstående palestinere, inkludert journalister, leger og hjelpearbeidere, og forårsaket dødsfall blant familie medlemmer, inkludert barn.

Eitt slikt tilfelle involverte den fremstående palestinske poeten og professoren, Refaat Alareer, som hadde søkt tilflukt i et familiens hjem under krigen. Tragisk nok førte et israelsk luftangrep ikke bare til hans død, men også til dødsfallene til hans bror, søster og fire barn. Journalister i Gaza har også lidd stor skade, med en dødstall på minst 90 palestinere, noe som gjør det til den mest dødelige perioden for journalister i noen moderne konflikt.

Desse grusomme ofrene reiser ubehagelige spørsmål om Israels oppførsel i konflikten. Hvem er israelske kommandanter som retter seg mot med disse dødelige angrepene, og hvordan velges disse målene ut? En nylig undersøkelsesrapport fra +972 Magazine og Local Call bringer noen forstyrrende svar frem i lyset, og avslører de uklare grensene mellom kunstig intelligens (AI) og moral.

I henhold til rapporten har de israelske forsvarsstyrkene brukt et AI-program kalt «Lavender» for å identifisere mål i Gaza siden starten av krigen. IDF innrømmer å bruke AI til etterretningsformål, men hevder at menneskelig beslutningstaking fortsatt er sentral for målrettingsbeslutningene. Imidlertid peker +972-rapporten på at menneskelige gjennomganger av AI-målene ofte er ikke mer enn en kort «gummi-stempel-prosess», som varer helt ned til 20 sekunder.

Det som er enda mer bekymringsfullt er at Lavender AI-systemet fortsatt har en feilrate på 10% i målrettingsnøyaktighet. Dette betyr at det er en betydelig risiko for å bombe feilaktige personer som deler navn med Hamas-medlemmer eller til og med personer som nylig har arvet et telefonnummer.

Selv når israelsk etterretning identifiserer et mål med antatte bånd til Hamas, står de overfor et moralsk dilemma angående tilstedeværelsen av sivile i nærheten. I de tidlige ukene av konflikten anså israelske kommandanter det angivelig som akseptabelt å drepe så mange som 15 til 20 uskyldige sivile for hver lavnivå Hamas-operativ som ble målrettet. Dette tallet økte til hundrevis for høyere Hamas-ledere.

+972-rapporten avslører også at påståtte lavnivå Hamas-operativ blir målrettet med mindre nøyaktige, såkalte «dumme bomber» for å spare mer kostbare «smart bomber» til høyrere rangerte personer. Denne strategien fører til mer utilsiktet skade og øker ytterligere antallet sivile ofre.

Kanskje den mest bekymringsfulle avsløringen er at Lavender AI-systemet utmerker seg i å spore utvalgte mål til deres hjem, der luftangrep anses som mest vellykket. Dessverre betyr dette også at hjemmene til disse målene i seg selv blir mål, noe som resulterer i dødsfall blant deres koner, barn og andre familiemedlemmer. Overraskende nok er AI-systemet bedre til å finne målets hjem enn å avgjøre om målet faktisk er til stede. Dette har ført til situasjoner der hele familier blir drept uten grunn.

En spesiell operasjon, med en dyster navnet «Hvor er Pappa?», belyser den mørke realiteten av Israels bruk av AI i denne konflikten. Det etterligner på en urovekkende måte den historiske bruken av nye teknologier for å forårsake ødeleggelse, fra maskingevær i første verdenskrig til Zyklon B-gass i nazistiske dødsleirer. Oppkomsten av AI tar dette til et bekymringsfullt nytt nivå, der beslutninger om liv og død blir tildelt maskiner for å unngå moralsk skyld.

Historiene som kommer fra Gaza tjener som en sterk påminnelse om krigens menneskelige pris og de etiske implikasjonene ved å stole på AI. Det er avgjørende at vi fortsetter å spørre og utfordre bruken av disse teknologiene, og sikre at jakten på militære mål ikke overskygger verdien av menneskeliv.

Spørsmål og svar

The source of the article is from the blog crasel.tk

Privacy policy
Contact