De Realiteit van AI-oorlogvoering: Het Blootstellen van de Ongewenste Gevolgen

De recente inzet van een kunstmatige intelligentie (AI) systeem door het Israëlische leger om lijsten van doelwitten te genereren voor mogelijke luchtaanvallen in Gaza heeft de aandacht gevestigd op de implicaties van militaire AI. Volgens een rapport gepubliceerd door het non-profit platform +972 Magazine, werd het systeem genaamd Lavender gebruikt in combinatie met andere AI-systemen om verdachte militanten te targeten en te doden, resulterend in aanzienlijke burgerlijke slachtoffers.

Terwijl de Israëlische Defensiemacht veel van de beweringen in het rapport ontkent en verklaart dat Lavender geen AI-systeem is maar een database voor het kruisverwijzen van inlichtingenbronnen, bevestigen andere bronnen het gebruik van AI in Israëlische militaire operaties. In 2021 meldde de Jerusalem Post dat Israël machine learning systemen had ingezet om doelwitten te identificeren tijdens een conflict met Hamas. Daarnaast werd in een eerdere +972-rapportage een AI-systeem genaamd Habsora genoemd, dat automatisch potentiële militanten gebouwen en faciliteiten identificeert voor bombardementen.

Het potentieel van AI in het leger is niet beperkt tot Israël. Landen als de Verenigde Staten en China investeren ook in AI-systemen voor militaire doeleinden. Voorstanders betogen dat AI kan leiden tot snellere besluitvorming, grotere precisie en verminderde slachtoffers. Echter zijn er zorgen over het gebrek aan menselijk toezicht en het potentieel voor fouten in door AI gegenereerde doelwitten.

Het recente +972-rapport beweert dat Lavender het proces van doelidentificatie automatiseert maar mogelijk minder strenge criteria hanteert en lagere bewijsnormen, wat leidt tot fouten in ongeveer 10% van de gevallen. Het rapport suggereert ook dat doelwitten als eerste optie in hun huizen worden gebombardeerd, resulterend in burgerlijke slachtoffers.

Ethische en juridische zorgen met betrekking tot militaire AI zijn grotendeels over het hoofd gezien. Momenteel zijn er geen universeel geaccepteerde of juridisch bindende regels die het gebruik ervan beheersen. Desalniettemin zijn er enige ontwikkelingen om deze zorgen aan te pakken. De Verenigde Naties bespreken al meer dan een decennium het gebruik van “dodelijke autonome wapensystemen” en de Algemene Vergadering van de VN heeft onlangs vóór een ontwerpresolutie gestemd waarin staat dat algoritmes niet volledig de beslissingen met betrekking tot doden moeten beheersen. De VS hebben ook een verklaring uitgegeven over het verantwoordelijke militaire gebruik van AI en autonomie, die steun heeft gekregen van tal van landen.

Ondanks deze inspanningen hebben internationale regelgevingen over het gebruik van militaire AI moeite om gelijke tred te houden met de snelle vooruitgang van de technologie. Naarmate legers over de hele wereld AI-systemen omarmen voor oorlogsvoering, worden de ongewenste gevolgen en mogelijke humanitaire schade duidelijker.

Het beloofde precisieoorlogsvoering door AI is nog niet volledig gerealiseerd. Rapporten over het gebruik van AI-systemen in Gaza tonen de beperkingen en ongewenste gevolgen aan van het uitsluitend vertrouwen op algoritmes voor doelbeslissingen. Het is van essentieel belang om de ethische en morele dilemma’s rondom militaire AI aan te pakken, waarbij menselijk toezicht en internationale voorschriften worden ingesteld om misbruik van deze krachtige technologie te voorkomen.

FAQ

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact