Kunstmatige intelligentie roept ethische vragen op in het Gazaconflict

Bij een tragische luchtaanval in de stad Rafah, gelegen in het zuidelijke deel van Gaza, vond een verwoestende gebeurtenis plaats: 17 kinderen en twee vrouwen verloren hun leven, wat een rouwende gemeenschap en tal van onbeantwoorde vragen achterliet over de keuzes van het Israëlische Defensieleger.

Er is onthuld dat tijdens het recente conflict in februari 2023, het Israëlische leger steeds meer vertrouwde op kunstmatige intelligentie (AI) systemen om zijn doelwitten te bepalen. Deze onthulling heeft bezorgdheid gewekt over het potentieel voor nevenschade en de ethische implicaties van AI in oorlogsvoering.

Het AI-systeem bekend als ‘Lavender’, zou naar verluidt een lijst van meer dan 30.000 individuen hebben geproduceerd voor de Israëlische strijdkrachten, een bewering die het leger heeft ontkend. Niettemin suggereren onderzoeken door Israëlische journalisten dat het leger aan het begin van het conflict voornamelijk AI-systemen gebruikte voordat grondoperaties begonnen, met de focus op het uitschakelen van zoveel mogelijk Hamas- en Palestijnse Islamitische Jihadstrijders vanuit de lucht.

Een onderzoek van de Stanford Universiteit suggereert dat AI mogelijk agressievere neigingen vertoont dan menselijke commandanten, waardoor de argumenten van critici over het potentieel van AI om echte objectiviteit te missen, worden versterkt. Ze stellen dat algoritmen de vooroordelen van hun makers weerspiegelen en mogelijk geen verbeteringen bieden ten opzichte van menselijke besluitvorming.

Een audit uitgevoerd door het Israëlische leger vond naar verluidt dat Lavender een foutenmarge had van 10 procent. Deze statistiek impliceert dat voor elke duizend gedode mensen, ongeveer honderd onschuldige burgers zouden kunnen zijn, een percentage dat het leger naar verluidt acceptabel achtte.

Wijzigingen in de algemene gevechtsrichtlijnen van het leger hebben mogelijk geleid tot een vertrouwen op minder nauwkeurige wapens, resulterend in een verschuiving van de strategie van gerichte precisieaanvallen naar bredere aanvallen. In vergelijking met eerdere conflicten lijkt deze benadering een lagere nauwkeurigheid en een hoger aantal burgerlijke slachtoffers teweeg te brengen.

Het debat over de rol van AI in oorlogvoering blijft een actueel en controversieel onderwerp, waarbij het aanhoudende Israëlisch-Palestijns conflict dient als brandpunt voor deze complexe ethische overwegingen. De internationale voorschriften die de gedragingen in oorlog reguleren, lopen nog achter op de technologische ontwikkelingen, waardoor er onbeantwoorde vragen zijn over de inzet en regulering van AI-systemen zoals Lavender in mondiale militaire operaties.

De ethische implicaties van AI in oorlogvoering zijn een belangrijk aandachtsgebied en beperken zich niet tot dit specifieke conflict. Een belangrijke ethische vraag die rijst, is of de inzet van AI zoals “Lavender” in militaire operaties de principes van onderscheid en proportionaliteit onder het internationaal humanitair recht respecteert. Deze principes vereisen een onderscheid tussen militaire doelwitten en burgers en het waarborgen dat de incidentele schade aan burgers niet buitensporig is in verhouding tot het verwachte militaire voordeel.

Een andere belangrijke ethische uitdaging is de zogenaamde “verantwoordelijkheidskloof” die kan ontstaan wanneer autonome systemen, onder leiding van AI, acties uitvoeren die onbedoelde schade veroorzaken. Vragen over verantwoordelijkheid worden complex: als een AI-systeem onterecht burgers als doelwit kiest, wie is dan verantwoordelijk voor de fout? Is het de militairen die de AI hebben ingezet, de ontwikkelaars die het algoritme hebben gecreëerd, of de commandanten die de inzet hebben goedgekeurd?

Bovendien betogen critici dat het vertrouwen op AI militair personeel kan ongevoelig maken voor de menselijke kosten van oorlogsvoering, waardoor mogelijk de ernst waarmee beslissingen over aanvallen worden genomen, afneemt. De controverse strekt zich ook uit tot zorgen dat AI de volledige context van een conflict niet kan bevatten, inclusief de menselijke en milieufactoren die mogelijk niet kwantificeerbaar zijn, maar cruciaal zijn voor ethische besluitvorming in oorlogsvoering.

Aan de andere kant wijzen voorstanders van AI in militaire toepassingen op mogelijke voordelen, zoals de mogelijkheid om sneller grote hoeveelheden data te verwerken dan mensen, wat mogelijk leidt tot meer geïnformeerde beslissingen. Er wordt ook betoogd dat AI het risico voor soldaten kan verminderen door taken uit te voeren die anders menselijke aanwezigheid in gevaarlijke omgevingen zouden vereisen.

De nadelen omvatten het ontbreken van emotioneel en moreel oordeel door AI-systemen, potentiële programmeer vooroordelen die van invloed kunnen zijn op het nemen van doelwitbeslissingen, en het risico op storingen of hacking, wat kan leiden tot catastrofale gevolgen.

De belangrijkste uitdagingen en controverses die verband houden met het onderwerp zijn onder andere:
– Zorgen dat AI-systemen voldoen aan het internationaal humanitair recht.
– Het aanpakken van de “verantwoordelijkheidskloof” voor AI-acties in oorlogsvoering.
– Het balanceren van het potentieel voor verminderd risico voor gewapende strijdkrachten met de noodzaak van morele en ethische besluitvorming.
– Voorkomen dat vooroordelen in AI-systemen worden ingebed.
– Het beheersen van het risico dat AI-systemen worden gehackt of storingen vertonen in een gevechtsomgeving.

Naarmate het gebruik van AI in militaire toepassingen blijft evolueren, kan het nodig zijn dat de internationale gemeenschap nieuwe regelgeving opstelt of bestaande regels wijzigt om deze uitdagingen adequaat aan te pakken en mogelijk misbruik van AI-technologieën in conflicten te voorkomen.

Voor degenen die geïnteresseerd zijn in bredere discussies en informatie over AI-ethiek en -beleid, kunnen de volgende gerelateerde links nuttig zijn:

Verenigde Naties voor het volgen van de internationale discussie over AI en regelgeving in oorlogvoering.
Internationaal Comité van het Rode Kruis voor informatie over het humanitaire perspectief en de wetten van gewapende conflicten.
Stanford Universiteit voor academische studies over AI, inclusief het gebruik ervan in militaire operaties.
Al Jazeera als bron voor nieuwsberichtgeving over het Israël-Palestina conflict en de implicaties ervan.
Amerikaanse ministerie van Defensie voor beleid over AI en ethische richtlijnen met betrekking tot militair gebruik.

Let op: de bovenstaande informatie is afkomstig van het verstrekte artikel en is relevant voor bredere ethische kwesties omtrent het gebruik van AI in conflict situaties.

Privacy policy
Contact