Kunstmatige Intelligentie Programma Identificeert Duizenden Verdachten in Gaza

Het data-analyseprogramma Lavender is genoemd vanwege het markeren van ongeveer 37.000 personen als mogelijke medewerkers van Hamas in Gaza, waar ongeveer 2,3 miljoen mensen wonen. Inzichten die zijn verstrekt aan Tel Aviv gevestigde bronnen “+972” en Local Call suggereren dat het algoritme de kans op iemands verbinding met Hamas heeft geëvalueerd op basis van ondoorzichtige criteria.

Tijdens de vroege stadia van het conflict volgde het Israëlische leger naar verluidt strikt de bevindingen van het programma, waarbij geïdentificeerde personen werden aangevallen zonder duidelijke criteria, zolang ze man waren.

Het omstreden concept van “menselijke doelwitten”, dat historisch gezien was voorbehouden aan hooggeplaatste militaire figuren, werd na 7 oktober aanzienlijk verbreed om een breder scala aan personen te omvatten die worden gezien als gelieerd aan Hamas. Deze significante uitbreiding van potentiële doelwitten beperkte de haalbaarheid van individuele verificatie, waardoor er meer vertrouwd werd op kunstmatige intelligentie.

Een bron uitte consternatie over incidenten waarbij een huis zou worden gebombardeerd om een “niet-significante” naam te elimineren, wat wijst op een erkenning van burgerlijke slachtingen in Gaza. Bovendien benadrukken deze bronnen operaties tegen doelen van laag niveau waarbij tot 20 burgerlijke slachtoffers waren toegestaan, wat wijst op een vertrek van het principe van proportionaliteit. Daarentegen werd gemeld dat de drempel voor slachtoffers bij doelen van hoge waarde kon oplopen tot 100 burgers.

Eenvoudige acties zoals regelmatige veranderingen van mobiele telefoon of woonplaats, of lid zijn van een anti-Israëlische WhatsApp-groep, werden beschouwd als voldoende voor opname in een lijst die kan leiden tot dodelijke gevolgen – een duidelijk voorbeeld van de brede criteria die door Israëlische troepen worden toegepast op bewoners van Gaza.

Kunstmatige intelligentie (AI) technologieën worden steeds vaker geïntegreerd in militaire en surveillancetoepassingen, waarbij landen dergelijke tools gebruiken voor verschillende doeleinden, waaronder de identificatie van mogelijke bedreigingen. Het gebruik van AI in dergelijke contexten roept verschillende belangrijke vragen, uitdagingen en controverses op, evenals voordelen en nadelen die het waard zijn te verkennen in verband met het onderwerp van AI dat wordt gebruikt om verdachten in Gaza te identificeren.

Belangrijke Vragen:
Wat zijn de ethische implicaties van het gebruik van AI voor militaire doelgerichte beslissingen?
Hoe voldoet het gebruik van een dergelijk AI-programma aan het internationaal recht, inclusief de principes van onderscheid en proportionaliteit?
Welke waarborgen bestaan er om de nauwkeurigheid van door AI gegenereerde inzichten te waarborgen?
Hoe beïnvloedt het gebruik van AI in militaire operaties de burgerbevolking in conflictgebieden?

Belangrijke Uitdagingen en Controverses:
Nauwkeurigheid en Vooringenomenheid: AI-systemen zijn afhankelijk van de kwaliteit en vooringenomenheid van de data waarop ze zijn getraind. Er is een risico op verkeerde identificatie en het potentieel voor onevenredige targeting van bepaalde groepen of individuen.
Ethische Bezwaren: Het gebruik van AI voor militaire doeleinden, met name in doelgerichte beslissingen, roept vragen op over de verantwoordelijkheid voor burgerlijke slachtoffers en de moraliteit van het vertrouwen op algoritmen voor levens- en doodbeslissingen.
Transparantie: De criteria en algoritmen die worden gebruikt in AI-programma’s zoals Lavender zijn vaak ondoorzichtig, waardoor het moeilijk is om hun rechtvaardigheid te beoordelen en om exploitanten ter verantwoording te roepen.
Naleving van Internationale Wetten: Er zijn zorgen over de vraag of AI-gerichte operaties in overeenstemming zijn met het internationaal humanitair recht, dat voorschrijft dat burgers in conflict beschermd moeten worden.

Voordelen:
Efficiëntie: AI kan veel sneller grote hoeveelheden gegevens verwerken dan mensen, en kan mogelijk bedreigingen identificeren die anders onopgemerkt zouden blijven.
Consistentie: AI-programma’s kunnen consequent dezelfde criteria toepassen, terwijl menselijk oordeel kan variëren.

Nadelen:
Burgerlijke slachtoffers: Het gebrek aan precieze verificatie kan leiden tot een hoger risico op burgerlijke slachtoffers, vooral wanneer een hoge drempel voor slachtoffers is ingesteld voor aanvallen op bepaalde doelen.
Verantwoordingsplicht: Het is uitdagend om verantwoordelijkheid toe te kennen voor fouten of wangedrag wanneer beslissingen worden genomen of ondersteund door AI.

Voor meer informatie kunnen geïnteresseerde lezers over kunstmatige intelligentie en de implicaties ervan bezoek brengen aan gerenommeerde AI-onderzoeks- en beleidsorganisaties. Hier zijn twee toonaangevende organisaties:
AI Now Institute – Richt zich op de sociale implicaties van kunstmatige intelligentie.
Partnership on AI – Een partnerschap tussen toonaangevende technologiebedrijven, maatschappelijke organisaties en academici om beste praktijken voor AI vast te stellen.

The source of the article is from the blog bitperfect.pe

Privacy policy
Contact