Israelsk militær benytter AI til målfinding i Gaza-konflikt

Siden oktober 2023 har beskæftigelsen af kunstig intelligens (AI) i krigsførelse af den israelske hær tiltrukket betydelig opmærksomhed. I den vedvarende Gaza-konflikt drager de israelske forsvarsstyrker (IDF) fordel af AI-drevne systemer til præcisionsmæssig målretning af trusler inden for den tætbefolkede region. En maskine, drevet af omfattende dataindsamling, spiller en afgørende rolle i denne proces ved at assimilere oplysninger såsom bopælsadresser, bevægelsesmønstre, aktivitet på sociale medier og endda mellemmenneskelige forbindelser for at etablere lister over potentielle mål.

En afsløring ledet af israelske journalister, drevet af indsigt fra seks medlemmer af IDF’s elite cyber-efterretningsenhed, har kastet lys over den kontroversielle operation kendt som ‘Lavender’. Denne operation indebærer oprettelse af lister, der effektivt fungerer som forudbestemmelser for målrettede drab. Chefredaktøren Meron Rapoport antyder et dystert perspektiv for dem, der er placeret på disse lister af AI-systemer, idet han sidestiller inklusionen med at være mærket til døden.

AI træffer ikke autonome beslutninger om at eliminere mål; dog er IDF-personel instrueret i at handle hurtigt, når et mål er identificeret af systemet. Kriterierne for acceptabelt collateral skade er slående; for almindelige mål er det 15-20 individer, men dette tal kan stige til mellem 200 og 300 for højkvalitetsmål. Menneskerettighedsorganisationer og FN har givet udtryk for bekymring over denne metode, især med hensyn til den store brug af AI til kampbeslutninger for første gang af en hær.

Nøglespørgsmål:

1. Hvilke etiske implikationer opstår ved brugen af AI til målanskaffelser i konfliktzoner? Anvendelse af AI i militære sammenhænge, især til målanskaffelse, rejser betydelige etiske bekymringer. Beslutninger, der kan medføre tab af liv, er ekstremt følsomme, og delegering af disse beslutninger til AI-systemer kan skabe en moralsk distance mellem menneskelige operatører og de dødelige resultater. Risikoen for fejl og potentialet for at sænke tærsklen for at deltage i kampe på grund af den opfattede præcision og effektivitet af AI-systemerne er også presserende etiske spørgsmål.

2. Hvor præcis er AI til at identificere gyldige militære mål, og hvilke sikkerhedsforanstaltninger er på plads for at forhindre civile tab? Ingen AI-system er ufejlbar. Derfor er nøjagtighed en kritisk faktor, når den anvendes til militære formål, især i tætbefolkede områder, hvor risikoen for civile tab er høj. Sikkerhedsforanstaltninger inkluderer normalt strenge regler for engagement og menneskelig overvågning. Imidlertid er den præcise karakter og effektivitet af disse sikkerhedsforanstaltninger i IDF’s system ikke omfattende detaljeret i den offentlige domæne.

3. Hvad er konsekvenserne af AI-drevet krigsførelse for international lov og reglerne for væbnet konflikt? AI-drevet krigsførelse præsenterer udfordringer for international lov, især principperne om adskillelse, proportionalitet og nødvendighed inden for reglerne for væbnet konflikt. Disse principper kræver, at kæmpende parter differentierer mellem militære mål og ikke-kombattanter, sikrer, at den militære fordel, der forventes af et angreb, ikke opvejes af skade på civile, og kun bruger magt, når det er nødvendigt. Integration af AI skaber vanskeligheder med at opretholde overholdelsen af disse principper.

Nøgleudfordringer og kontroverser:

Ansvarlighed: Med AI-systemer, der spiller en betydelig rolle i at fastlægge mål, kan det være udfordrende at etablere klar ansvarlighed, når civile tab eller fejlagtige målretninger forekommer.
Ethisk beslutningstagning: Den omfattende brug af maskinlæring rejser spørgsmål om, hvordan etiske overvejelser er programmeret ind i AI-systemer, hvis overhovedet, og om disse systemer kan forstå kompleksiteten af menneskelivet og den moralske vægt af målretningens beslutninger.
Dataprivatliv: Indsamlingen og brugen af personlige data, såsom aktivitet på sociale medier og mellemmenneskelige forhold, til målretning af AI-systemer kan give anledning til bekymringer over krænkelser af privatlivet.

Fordele og Ulemper:

Fordele:
Effektivitet: AI kan behandle store mængder data meget hurtigere end mennesker og potentielt identificere trusler hurtigt og præcist inden for omfattende datasæt.
Precision: Korrekt kalibrerede AI-systemer kan have højere præcision i målretning og potentielt reducere forekomsten af upræcise angreb.

Ulemper:
Civil Risiko: Afhængighed af AI til målretning i et befolket område som Gaza øger risikoen for civile tab, især hvis AI fejlklassificerer mål.
Dehumanisering: Brugen af AI i krigsførelse kan føre til en dehumanisering af konflikten, hvor beslutninger med alvorlige moralske og juridiske konsekvenser træffes af algoritmer i stedet for menneskelig dømmekraft.
Fejlspredning: Hvis AI’ens underliggende data eller algoritmer er fejlbehæftede, kan disse fejl sprede sig på stor skala og potentielt føre til fejlagtige målretninger og tab af uskyldige liv.

For yderligere læsning om emnet og for at sikre adgang til pålidelig og aktuel information, kan du besøge den officielle hjemmeside for Israels forsvarsstyrker og FN, der ofte behandler spørgsmål vedrørende internationale konflikter og brugen af nye teknologier i krigsførelse.

Privacy policy
Contact