De menselijke kosten: Israel’s gebruik van AI in Gaza

Het voortdurende conflict tussen Israël en Hamas in Gaza heeft geleid tot verwoestende luchtaanvallen door Israëlische strijdkrachten die bijna dagelijks plaatsvinden. Deze aanvallen hebben vaak geleid tot de vernietiging van huizen van opmerkelijke Palestijnen, waaronder journalisten, artsen en hulpverleners, met als gevolg de dood van talrijke familieleden, waaronder kinderen.

Een van deze incidenten betrof de prominente Palestijnse dichter en professor, Refaat Alareer, die tijdens de oorlog zijn toevlucht had gezocht in een familiehuis. Een Israëlische luchtaanval heeft tragisch genoeg niet alleen zijn leven genomen, maar ook dat van zijn broer, zus en vier kinderen. Journalisten in Gaza hebben ook zwaar geleden, met een dodental van minstens 90 Palestijnen, waardoor dit de dodelijkste periode is voor journalisten in elk modern conflict.

Deze afschuwelijke slachtoffers roepen ongemakkelijke vragen op over het gedrag van Israël in het conflict. Op wie richten Israëlische commandanten zich met deze dodelijke aanvallen en hoe worden deze doelwitten geselecteerd? Een recent onderzoeksrapport van +972 Magazine en Local Call werpt enkele verontrustende antwoorden op, waarbij de grens tussen kunstmatige intelligentie (AI) en moraliteit wordt onthuld.

Volgens het rapport gebruikt de Israeli Defense Force (IDF) een AI-programma genaamd “Lavender” om doelen in Gaza te identificeren sinds het begin van de oorlog. De IDF geeft toe AI te gebruiken voor inlichtingendoeleinden, maar handhaaft dat menselijke besluitvorming essentieel blijft voor de keuze van doelwitten. Het +972-rapport suggereert echter dat menselijke beoordelingen van de AI-doelen vaak niet meer zijn dan een kortstondige goedkeuring, die slechts 20 seconden kan duren.

Wat nog verontrustender is, is dat het Lavender AI-systeem nog steeds een foutenmarge van 10% heeft in de precisie van het richten. Dit betekent dat er een aanzienlijk risico bestaat dat individuen per abuis gebombardeerd worden die namen delen met leden van Hamas of zelfs mensen die recentelijk een telefoonnummer hebben geërfd.

Zelfs wanneer Israëlische inlichtingendiensten een doelwit met vermeende banden met Hamas identificeren, staan ze voor een moreel dilemma met betrekking tot de aanwezigheid van burgers in de omgeving. In de beginweken van het conflict zouden Israëlische commandanten naar verluidt het acceptabel hebben gevonden om tot wel 15 tot 20 onschuldige burgers te doden voor elke laaggeplaatste Hamas-operator die wordt getarget. Dit aantal steeg tot honderden voor hoger geplaatste Hamas-leiders.

Het +972-rapport onthult ook dat vermeende laaggeplaatste Hamas-operators worden getarget met minder precieze, zogenaamde “domme bommen” om de duurdere “slimme bommen” te sparen voor hoger geplaatste individuen. Deze strategie leidt tot meer nevenschade en verhoogt het aantal burgerslachtoffers.

Misschien wel de meest verontrustende onthulling is dat het Lavender AI-systeem uitblinkt in het volgen van geselecteerde doelwitten naar hun huizen, waar luchtaanvallen het meest succesvol worden geacht. Helaas betekent dit ook dat de huizen van deze doelwitten zelf doelwitten worden, met als gevolg de dood van hun vrouwen, kinderen en andere familieleden. De AI is beter in staat om het huis van het doelwit te lokaliseren dan om vast te stellen of het doelwit daadwerkelijk aanwezig is. Dit heeft geleid tot gevallen waarin hele families zonder reden zijn gedood.

Eén operatie in het bijzonder, sinistere genaamd “Waar is papa?”, belicht de duistere realiteit van Israëls gebruik van AI in dit conflict. Het echoot huiveringwekkend de historische inzet van nieuwe technologieën om vernietiging te veroorzaken, van machinegeweren in de Eerste Wereldoorlog tot Zyklon B-gas in nazi-dodenkampen. De opkomst van AI tilt dit naar een zorgwekkend nieuw niveau, waarbij beslissingen van leven en dood aan machines worden toegewezen om morele verantwoordelijkheid te vermijden.

De verhalen die uit Gaza naar voren komen, dienen als een schrijnende herinnering aan de menselijke kosten van oorlog en de ethische implicaties van het vertrouwen op AI. Het is cruciaal dat we blijven vragen stellen en het gebruik van deze technologieën uitdagen, ervoor zorgend dat het nastreven van militaire doelstellingen niet de waarde van het menselijk leven overschaduwt.

Veelgestelde vragen

The source of the article is from the blog papodemusica.com

Privacy policy
Contact