Israëlisch leger zet AI in voor doelopsporing in Gaza-conflict

Sinds oktober 2023 heeft het gebruik van kunstmatige intelligentie (AI) in oorlogsvoering door het Israëlische leger aanzienlijke aandacht gekregen. In het voortdurende conflict in Gaza maken de Israëlische Defensiemacht (IDF) gebruik van door AI aangedreven systemen voor de nauwkeurige targeting van bedreigingen binnen de dichtbevolkte regio. Een machine aangedreven door uitgebreide gegevensverzameling speelt een cruciale rol in dit proces, waarbij informatie zoals woonadressen, bewegingspatronen, activiteit op sociale media en zelfs persoonlijke associaties worden geassimileerd om lijsten van potentiële doelwitten op te stellen.

Een onthulling die werd geleid door Israëlische journalisten, gevoed door inzichten van zes leden van de elite cyber-inlichtingeneenheid van de IDF, heeft licht geworpen op de controversiële operatie die bekend staat als ‘Lavender’. Deze operatie omvat het creëren van lijsten die effectief dienen als voorbeschikkingen voor gerichte liquidaties. De hoofdredacteur Meron Rapoport suggereert een somber vooruitzicht voor degenen die door AI-systemen op deze lijsten worden geplaatst, waarbij inclusie gelijk wordt gesteld aan gemarkeerd zijn voor de dood.

AI maakt geen autonome beslissingen om doelen te elimineren; echter, IDF-personeel wordt geïnstrueerd om snel te handelen zodra een doelwit door het systeem is geïdentificeerd. De criteria voor acceptabele nevenschade zijn opvallend; voor gewone doelen is het 15-20 personen, maar dit aantal kan oplopen tot tussen de 200 en 300 voor doelen met hoge waarde. Mensenrechtenorganisaties en de Verenigde Naties hebben hun bezorgdheid geuit over deze methode, met name gezien het grootschalige gebruik van AI voor gevechtsbeslissingen voor het eerst door een leger.

Belangrijke vragen:

1. Welke ethische implicaties komen voort uit het gebruik van AI voor het verwerven van doelen in conflictgebieden?
AI in militaire toepassingen, met name voor doelacquisitie, roept aanzienlijke ethische zorgen op. Beslissingen die kunnen leiden tot verlies van leven zijn uiterst gevoelig, en de delegatie van deze beslissingen aan AI-systemen kan een morele afstand creëren tussen menselijke operators en de dodelijke uitkomsten. Het risico op fouten en het potentiële verlagen van de drempel om deel te nemen aan gevechten vanwege de waargenomen precisie en efficiëntie van AI-systemen zijn ook dringende ethische kwesties.

2. Hoe accuraat is de AI in het identificeren van geldige militaire doelen, en welke waarborgen zijn er om burgerslachtoffers te voorkomen?
Geen enkel AI-systeem is onfeilbaar. Daarom is nauwkeurigheid een cruciaal aspect wanneer het wordt gebruikt voor militaire doeleinden, vooral in dichtbevolkte gebieden waar het risico op burgerslachtoffers hoog is. Waarborgen omvatten doorgaans strenge regels van engagement en menselijk toezicht. De exacte aard en effectiviteit van deze waarborgen in het systeem van de IDF worden echter niet uitgebreid beschreven in de publieke sfeer.

3. Wat zijn de implicaties van door AI gedreven oorlogsvoering voor internationaal recht en de regels van gewapend conflict?
Door AI gedreven oorlogsvoering presenteert uitdagingen voor internationaal recht, met name de principes van onderscheid, proportionaliteit en noodzakelijkheid in de regels van gewapend conflict. Deze principes vereisen dat strijdende partijen onderscheid maken tussen militaire doelen en niet-strijders, ervoor zorgen dat het militaire voordeel dat wordt verwacht van een aanval niet opweegt tegen de schade aan burgers, en alleen geweld gebruiken wanneer dat noodzakelijk is. Het integreren van AI brengt moeilijkheden met zich mee bij het handhaven van naleving van deze principes.

Belangrijke uitdagingen en controverses:

Verantwoording: Met AI-systemen die een significante rol spelen bij het bepalen van doelen, kan het moeilijk zijn om duidelijk verantwoordelijkheid vast te stellen wanneer burgerslachtoffers of verkeerde doelwitten optreden.
Ethische besluitvorming: Het uitgebreide gebruik van machine learning roept vragen op over hoe ethische overwegingen zijn geprogrammeerd in AI-systemen, al dan niet, en of deze systemen de complexiteit van het menselijk leven en het morele gewicht van doelbeslissingen kunnen waarderen.
Gegevensprivacy: Het verzamelen en gebruiken van persoonlijke gegevens, zoals activiteit op sociale media en interpersoonlijke relaties, voor doeleinden van targeting door AI-systemen kan leiden tot zorgen over schendingen van de privacy.

Voordelen en Nadelen:

Voordelen:
Efficiëntie: AI kan grote hoeveelheden data veel sneller verwerken dan mensen, waardoor potentieel bedreigingen snel en nauwkeurig binnen uitgebreide datasets kunnen worden geïdentificeerd.
Precisie: Goed gekalibreerde AI-systemen kunnen een hogere precisie hebben bij het richten, waardoor het incidentie van willekeurige aanvallen mogelijk wordt verminderd.

Nadelen:
Risico voor burgers: De afhankelijkheid van AI voor targeting in een dichtbevolkt gebied zoals Gaza verhoogt het risico op burgerslachtoffers, met name als de AI doelwitten verkeerd classificeert.
Ontmenselijking: Het gebruik van AI in oorlogsvoering kan leiden tot een ontmenselijking van het conflict, waarbij beslissingen die ernstige morele en wettelijke implicaties hebben, worden genomen door algoritmen in plaats van menselijke beoordeling.
Foutenpropagatie: Als de onderliggende gegevens of algoritmen van de AI gebrekkig zijn, kunnen deze fouten op grote schaal worden voortgezet, wat kan leiden tot verkeerde doelwitten en verlies van onschuldige levens.

Voor meer informatie over het onderwerp en om toegang te hebben tot betrouwbare en actuele informatie, kun je de officiële website van de Israëlische Defensiemacht en de Verenigde Naties bezoeken, die vaak kwesties met betrekking tot internationale conflicten en het gebruik van nieuwe technologieën in oorlogvoering behandelen.

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact