Artificial Intelligence in Warfare: Evaluating the Impact on Target Identification

Artificial intelligence (AI) wordt steeds vaker ingezet in oorlogvoering, wat vragen oproept over de rol van menselijke wil en controle ten opzichte van door AI gestuurde wapens. Hoewel autonome systemen het menselijk handelen niet overbodig maken, suggereren moderne oorlogsvoeringstechnieken een vermindering van het aantal burgerslachtoffers en een toename van de doeltreffendheid tegenover strijders.

Een recente casestudy richt zich op het gebruik van AI door Israël in Gaza. De Israëlische Defensiemacht integreerde AI in hun operaties om doelwitten te identificeren en uit te schakelen. Echter, de resultaten bleken niet nauwkeurig of moreel verantwoord. In plaats van schade aan burgers te beperken, lijkt het gebruik van AI door Israël het aantal doelwitten uitgebreid te hebben, met mogelijk maximale schade als gevolg.

Het onderzoek naar dit onderwerp verwijst naar een publicatie getiteld “Het Mens-Machine Team: Hoe Menselijke en Kunstmatige Intelligentie te Creëren die Onze Wereld Zal Revolutioneren,” geschreven door Brigadegeneraal Y.S., de commandant van de Israëlische inlichtingeneenheid 8200. De publicatie pleit voor een systeem dat razendsnel duizenden potentiële doelwitten genereert tijdens conflictsituaties, zonder menselijke goedkeuring en verificatie.

De gezamenlijke onderzoeksinspanning van +972 en Local Call bracht de geavanceerde ontwikkelingsfase van dit systeem aan het licht, bekend als Lavender bij de Israëlische strijdkrachten. Lavender gaat verder dan eerdere AI-systemen door militaire gebouwen en structuren van militanten te identificeren. Echter, zelfs deze vorm van identificatie slaagde er niet in het dodental te beperken, resulterend in wat sommigen beschrijven als een “massamoordfabriek.”

Zes Israëlische inlichtingenofficieren, die dienden tijdens de recente oorlog in Gaza, onthulden de centrale rol van Lavender bij de ongekende bombardementen op Palestijnen, met name in de beginfase van het conflict. Het AI-systeem verminderde effectief het menselijke element en gaf een fictief gevoel van menselijke geloofwaardigheid aan de resultaten van de doelgerichtheid.

In de eerste weken van de oorlog vertrouwde de IDF zwaar op Lavender en identificeerde ongeveer 37.000 Palestijnen als mogelijke strijders voor mogelijke luchtaanvallen. Dit betekende een verandering van de vorige doctrine van het richten op specifieke hoge militaire functionarissen. Onder het nieuwe beleid werden alle Hamas-strijders in de militaire vleugel, ongeacht rang, aangeduid als menselijke doelen.

Officieren kregen een brede bevoegdheid om dodenlijsten zonder controle te accepteren, met slechts 20 seconden per doelwit voor het autoriseren van bombardementen. Toestemming werd verleend ondanks de wetenschap dat ongeveer 10 procent van de gevallen fouten bij het richten omvatte, waarbij individuen met vage of geen connectie met militantengroepen werden gemarkeerd.

Daarnaast werkte het Lavender-systeem samen met een ander geautomatiseerd platform genaamd “Waar is Papa?” Dit platform volgde doelgerichte individuen naar hun familiehuizen, die vervolgens werden verwoest. Het resultaat was een groot aantal burgerslachtoffers, waarbij duizenden Palestijnen, inclusief vrouwen, kinderen en niet-strijders, werden gedood door Israëlische luchtaanvallen in de beginfase van het conflict.

Een inlichtingenofficier gaf de grimmige realiteit aan dat het doden van Hamas-strijders in militaire faciliteiten of tijdens militaire activiteiten van weinig belang was. In plaats daarvan lag de focus voornamelijk op het bombarderen van hun huizen, omdat dit een eenvoudigere taak bleek te zijn. Het Lavender-systeem was specifiek ontworpen voor dergelijke situaties.

Het gebruik van dit systeem omvatte angstaanjagende en gruwelijke berekeningen. Twee bronnen onthulden dat tijdens de eerste weken van de oorlog de IDF de autorisatie gaf om tot 15 of 20 burgers te doden voor elke junior Hamas-functionaris gemarkeerd door Lavender. Voor meer senior Hamas-functionarissen konden de geautoriseerde doden oplopen tot wel 100 burgers.

In reactie op deze onthullingen blijft de IDF volhouden dat ze geen AI-systeem gebruiken om terroristen te identificeren of de status van een individu als terrorist te voorspellen. In plaats daarvan wordt beweerd dat een database inlichtingenbronnen over de militaire functionarissen van terroristische organisaties kruist.

VN-secretaris-generaal António Guterres heeft diepe bezorgdheid geuit over rapporten van het gebruik van AI door Israël om doelwitten te identificeren, met name in dichtbevolkte woongebieden. Het gebruik van AI op deze manier heeft geleid tot een hoog aantal burgerslachtoffers, wat ethische en morele vragen oproept over de impact van door AI gestuurde oorlogsvoering.

FAQ:

V: Wat is het Lavender-systeem?
A: Het Lavender-systeem is een door AI gecreëerde tool die door de Israëlische Defensiemacht wordt gebruikt om doelwitten in oorlogsvoering te identificeren.

V: Hoe nauwkeurig is Lavender bij het richten?
A: Het Lavender-systeem blijkt onnauwkeurigheden te hebben bij het richten, waarbij individuen die weinig of geen connectie hebben met militantengroepen worden gemarkeerd.

V: Hoe zijn burgerslachtoffers beïnvloed door het gebruik van Lavender?
A: Het gebruik van Lavender, samen met andere AI-platforms, heeft geleid tot aanzienlijke burgerslachtoffers, vooral in Gaza, tijdens de beginfase van het conflict.

The source of the article is from the blog enp.gr

Privacy policy
Contact