Kunstmatige Intelligentie Programma Identificeert Duizenden Verdachten in Gaza

Het data-analyseprogramma Lavender is geciteerd voor het markeren van ongeveer 37.000 personen als mogelijke medewerkers van Hamas in Gaza, waar ongeveer 2,3 miljoen mensen wonen. Inzichten die zijn verstrekt door bronnen aan het in Tel Aviv gevestigde “+972” en Local Call suggereren dat het algoritme de kans op iemands banden met Hamas heeft geëvalueerd op basis van ondoorzichtige criteria.

Tijdens de beginfase van het conflict, heeft het Israëlische leger naar verluidt strikt gehandeld volgens de bevindingen van het programma, waarbij geïdentificeerde personen werden aangevallen zonder onderscheidende criteria, zolang ze mannelijk waren.

Het omstreden concept van “menselijke doelen”, historisch gereserveerd voor hooggeplaatste militaire figuren, werd opmerkelijk verbreed na 7 oktober om een breder scala aan personen te omvatten die worden gezien als verbonden met Hamas. Deze aanzienlijke uitbreiding in potentiële doelwitten beperkte de haalbaarheid van individuele verificatie, wat leidde tot een grotere afhankelijkheid van kunstmatige intelligentie.

Een bron uitte verontrusting over incidenten waarbij een huis zou worden gebombardeerd om een “niet-significante” naam te elimineren, wat een impliciete erkenning van burgerlijke slachtingen in Gaza impliceert. Bovendien benadrukken deze bronnen operaties tegen lage doelen waarbij tot 20 burgerlijke slachtoffers waren toegestaan, wat wijst op een afwijking van het proportionaliteitsprincipe. In tegenstelling hiermee werd gemeld dat de drempel voor slachtoffers van hoge waarde tot 100 burgers kon bereiken.

Eenvoudige acties zoals het regelmatig wisselen van mobiele telefoon of woonplaats, of deel uitmaken van een anti-Israëlische WhatsApp-groep, werden voldoende geacht voor opname in een lijst die kon leiden tot dodelijke gevolgen – een duidelijke reflectie van de brede criteria die door de Israëlische troepen werden toegepast op de bewoners van Gaza.

Kunstmatige intelligentie (AI) technologieën worden steeds vaker geïntegreerd in militaire en surveillancetoepassingen, waarbij landen dergelijke tools gebruiken voor diverse doeleinden, waaronder het identificeren van mogelijke bedreigingen. Het gebruik van AI in dergelijke contexten roept verschillende belangrijke vragen, uitdagingen en controverses op, evenals voordelen en nadelen die het waard zijn om te verkennen met betrekking tot het onderwerp van het gebruik van AI om verdachten in Gaza te identificeren.

Belangrijke Vragen:
1. Wat zijn de ethische implicaties van het gebruik van AI voor militaire doelbepalingsbeslissingen?
2. Hoe voldoet het gebruik van een dergelijk AI-programma aan internationaal recht, inclusief de principes van onderscheid en proportionaliteit?
3. Welke waarborgen bestaan er om de nauwkeurigheid van door AI gegenereerde inzichten te waarborgen?
4. Hoe beïnvloedt het gebruik van AI in militaire operaties de burgerbevolking in conflictgebieden?

Belangrijke Uitdagingen en Controverses:
1. Nauwkeurigheid en Bias: AI-systemen zijn afhankelijk van de kwaliteit en bias van de data waarop ze zijn getraind. Er bestaat een risico op verkeerde identificatie en het potentieel voor disproportionele targeting van bepaalde groepen of individuen.
2. Ethische Bezwaren: De toepassing van AI voor militaire doeleinden, met name in doelbepalingsbeslissingen, roept vragen op over de verantwoordelijkheid voor burgerlijke slachtoffers en de moraliteit van het vertrouwen op algoritmes voor levens- en doodbeslissingen.
3. Transparantie: De criteria en algoritmes die worden gebruikt in AI-programma’s zoals Lavender zijn vaak ondoorzichtig, waardoor het moeilijk is om hun rechtvaardigheid te beoordelen en exploitanten verantwoordelijk te houden.
4. Compliance met Internationale Wetten: Er zijn zorgen over of AI-gerichte operaties in overeenstemming zijn met het internationaal humanitair recht, dat de bescherming van burgers in conflictsituaties voorschrijft.

Voordelen:
1. Efficiëntie: AI kan veel sneller grote hoeveelheden data verwerken dan mensen, en mogelijk bedreigingen identificeren die anders onopgemerkt zouden blijven.
2. Consistentie: AI-programma’s kunnen consistent dezelfde criteria toepassen, terwijl menselijk oordeel kan variëren.

Nadelen:
1. Civiele Slachtoffers: Het gebrek aan precieze verificatie kan leiden tot een hoger risico op burgerliche slachtoffers, vooral wanneer een hoge cascadrempel wordt ingesteld voor aanvallen op bepaalde doelen.
2. Verantwoordelijkheid: Het is moeilijk om verantwoordelijkheid toe te schrijven voor fouten of wangedrag wanneer beslissingen worden genomen of bijgestaan door AI.

Voor meer informatie kunnen geïnteresseerde lezers die meer willen weten over kunstmatige intelligentie en de implicaties ervan, terecht bij gerenommeerde organisaties voor AI-onderzoek en -beleid. Hier zijn twee toonaangevende organisaties:
AI Now Institute – Richt zich op de sociale implicaties van kunstmatige intelligentie.
Partnership on AI – Een partnerschap tussen toonaangevende technologiebedrijven, maatschappelijke organisaties en academici om de beste praktijken voor AI vast te stellen.

The source of the article is from the blog bitperfect.pe

Web Story

Privacy policy
Contact