Kunstmatige Intelligentie Programma Identificeert Duizenden Verdachten in Gaza.

Het data-analyseprogramma Lavendel is aangehaald vanwege het markeren van ongeveer 37.000 personen als mogelijke sympathisanten van Hamas in Gaza, de thuisbasis van ongeveer 2,3 miljoen mensen. Inzichten die zijn verstrekt aan Tel Aviv gevestigde “+972” en Local Call suggereren dat het algoritme de waarschijnlijkheid van iemands connectie met Hamas heeft geëvalueerd op basis van ondoorzichtige criteria.

Tijdens de vroege stadia van het conflict, meldde het Israëlische leger zich naar verluidt strikt aan de bevindingen van het programma, waarbij geïdentificeerde personen werden aangevallen zonder duidelijke criteria, zolang ze mannelijk waren.

Het omstreden concept van “menselijke doelwitten”, historisch gereserveerd voor hooggeplaatste militaire figuren, werd opmerkelijk verbreed na 7 oktober om een breder scala aan individuen te omvatten die worden gezien als zijnde verbonden met Hamas. Deze aanzienlijke uitbreiding van mogelijke doelwitten beperkte de haalbaarheid van individuele verificatie, en stimuleerde een grotere afhankelijkheid van kunstmatige intelligentie.

Een bron uitte zorgen over incidenten waarbij een huis zou worden gebombardeerd om een “niet-significante” naam te elimineren, wat een erkenning inhoudt van burgerlijke slachtpartijen in Gaza. Bovendien benadrukken deze bronnen operaties tegen laaggeplaatste doelwitten waar tot wel 20 burgerlijke slachtoffers werden toegestaan, wat duidt op een afwijking van het principe van proportionaliteit. In tegenstelling hiermee was het drempel van slachtoffers voor hoogwaardige doelwitten naar verluidt tot wel 100 burgers.

Eenvoudige acties zoals regelmatig van mobiele telefoon veranderen of van verblijfplaats, of deel uitmaken van een anti-Israëlische WhatsApp-groep, werden als voldoende beschouwd voor opname in een lijst die kon leiden tot dodelijke gevolgen — een treffende weerspiegeling van de brede criteria die worden toegepast op Gazastrookbewoners door de Israëlische strijdkrachten.

Kunstmatige intelligentie (AI) technologieën worden steeds vaker geïntegreerd in militaire en surveillance operaties, waarbij landen dergelijke tools gebruiken voor diverse doeleinden, waaronder het identificeren van mogelijke bedreigingen. Het gebruik van AI in dergelijke contexten roept verschillende belangrijke vragen, uitdagingen en controverses op, evenals voordelen en nadelen die het waard zijn om te verkennen in relatie tot het onderwerp van AI dat wordt gebruikt om verdachten in Gaza te identificeren.

Belangrijke vragen:
1. Wat zijn de ethische implicaties van het gebruik van AI voor militaire doelwitbeslissingen?
2. Hoe voldoet het gebruik van zo’n AI-programma aan het internationaal recht, inclusief de principes van onderscheid en proportionaliteit?
3. Welke waarborgen bestaan er om de nauwkeurigheid van door AI gegenereerde inzichten te waarborgen?
4. Hoe beïnvloedt het gebruik van AI in militaire operaties de burgerbevolking in conflictzones?

Belangrijke uitdagingen en controverses:
1. Nauwkeurigheid en Vooroordeel: AI-systemen zijn afhankelijk van de kwaliteit en Vooroordeel van de data waarop ze zijn getraind. Er bestaat een risico op verkeerde identificatie en het potentieel voor onevenredige targeting van bepaalde groepen of individuen.
2. Ethische Bezwaren: De toepassing van AI voor militaire doeleinden, met name in doelwitbeslissingen, roept vragen op over de verantwoordelijkheid voor burgerlijke slachtoffers en de moraliteit van het vertrouwen op algoritmen voor levens- en doodbeslissingen.
3. Transparantie: De criteria en algoritmen die worden gebruikt in AI-programma’s zoals Lavendel zijn vaak ondoorzichtig, waardoor het moeilijk is om hun eerlijkheid te beoordelen en de exploitanten verantwoordelijk te houden.
4. Naleving van Internationale Wetten: Er zijn zorgen over het al dan niet AI-gerichte operaties in overeenstemming zijn met het internationaal humanitair recht, dat voorschrijft dat burgers in conflict moeten worden beschermd.

Voordelen:
1. Efficiëntie: AI kan enorme hoeveelheden gegevens veel sneller verwerken dan mensen, en kan mogelijk bedreigingen identificeren die anders over het hoofd zouden worden gezien.
2. Consistentie: AI-programma’s kunnen consistent dezelfde criteria toepassen, terwijl menselijke beoordeling kan variëren.

Nadelen:
1. Burgerlijke Slachtoffers: Het gebrek aan nauwkeurige verificatie kan leiden tot een verhoogd risico op burgerlijke slachtoffers, vooral wanneer een hoge drempel van slachtoffers is ingesteld voor aanvallen op bepaalde doelwitten.
2. Verantwoordelijkheid: Het is moeilijk om verantwoordelijkheid toe te schrijven voor fouten of wangedrag wanneer beslissingen worden genomen of ondersteund door AI.

Voor meer informatie kunnen geïnteresseerde lezers die meer willen weten over kunstmatige intelligentie en de implicaties ervan terecht bij gerenommeerde AI-onderzoeks- en beleidsorganisaties. Hier zijn twee toonaangevende organisaties:
AI Now Institute – Richt zich op de sociale implicaties van kunstmatige intelligentie.
Partnership on AI – Een partnerschap tussen toonaangevende technologiebedrijven, maatschappelijke organisaties en academici om best practices voor AI vast te stellen.

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact