Et Overblik over Kampmarkens AI: Israels Militærs ‘Lavender’ og Etikken bag Algoritmisk Krigsførelse

Ny militærteknologi former moderne krigsdynamik

I en betydningsfuld udvikling inden for militær strategi er et koncept foreslået af “Brigadegeneral YS” i en bog fra 2021 blevet til virkelighed. Afhandlingen foreslog oprettelsen af en højhastigheds dataforarbejdningsmaskine til identifikation af en mangfoldighed af potentielle militære mål, hvilket styrker synergien mellem menneskelig og kunstig intelligens.

Lavendels indvirkning på israelske forsvarsoperationer

Efterforskningsrapporter fra +972 og Local Call, offentliggjort af Agência Pública, fremhæver den israelske hærs udrulning af et kunstig intelligensprogram kaldet “Lavendel.” AI’en spillede en afgørende rolle i målrettede operationer under Gaza-konflikten, især i de indledende faser ifølge seks israelske efterretningsofficerer med direkte forbindelse til programmet.

Systems pålidelighed og etiske implikationer under krigstid

Ved at stole på Lavendel identificerede militæret cirka 37.000 palæstinensere som potentielle mistænkte. Tilliden var så stor, at afgørelser truffet af AI’en ofte blev sidestillet med menneskeligt skøn, med i gennemsnit 20 sekunder afsat til hvert potentiale før sanktionering. Mens AI’en generelt opnåede høj nøjagtighed, erkendte den også en fejlrate på 10%, hvilket lejlighedsvis førte til fejlagtig identifikation af individer med minimale eller ingen forbindelser til de målrettede fraktioner.

Kontroversielle målretningstaktikker og civile risici

AI’en bidrog til systematiske angreb, herunder angreb på boligområder, hvilket resulterede i mange civile ofre. Disse ofre inkluderede hovedsageligt kvinder, børn og ikke-kombattanter. En efterretningsansvarlig understregede det lette i at målrette mod hjemlige områder frem for militære placeringer. Desuden blev der foretrukket brugen af basale, ukorrekte ammunitionsprojektiler til lavtrangmål for at spare på dyrere ammunition.

Skabelsen af præcedenser inden for militær engagement

I et enestående skridt blev det besluttet, at for hver lavtræningsoperativ, der blev identificeret, var op til 15 eller 20 civile ofre acceptabelt – et tal der steg betydeligt, når det kom til højtranggede embedsmænd.

Tidslinje for målautomatisering i Gaza-konflikten

Først havde de israelske styrker en skarp definition af “menneskelige mål”, der fokuserede på højtrangsende operativer. Imidlertid, efter en stigning i fjendtligheder ledet af Hamas den 7. oktober 2023, blev alle personer tilknyttet Hamas’ militære fløj anset som levedygtige mål. Når Lavendels nøjagtighed blev bekræftet gennem stikprøvekontroller, fik dens valg lov at fortsætte uden uafhængig verificering, hvilket forenklede og sped op beslutningsprocessen under krig.

Konsekvenserne af denne nye tilgang, som det fremgår af palæstinensiske sundhedsministeriedata, inkluderede et betydeligt antal dødsfald i de første seks uger, hvor tallene næsten fordoblede sig, mens konflikten fortsatte. Lavendel udøver omfattende overvågning over Gazas befolkning på 2,3 millioner for at fastslå hver enkelts sandsynlighed for militær aktivitet.

Nøgleudfordringer og kontroverser ved algoritmisk krigsførelse:

Algoritmisk krigsførelse, som den der involverer det israelske militærs “Lavendel” AI-program, rejser betydelige udfordringer og kontroverser:

Ethiske implikationer: Brugen af algoritmer i målretning rejser etiske spørgsmål om autonomi, ansvarlighed og værdisætning af menneskeliv. Med AI-systemer der træffer beslutninger på sekunder, er spørgsmålet om tilstrækkelig menneskelig tilsyn og potentiel dehumanisering af krigsførelse bekymringer.

Civile ofre: AI-målretning kan føre til høje civile ofre, hvis systemet fejlagtigt identificerer mål eller hvis proportionalitetsretningslinjerne tillader betydelig kollateral skade. Risikoen for ikke-kombattanter, især i tætbefolkede områder som Gaza, er en betydelig menneskerettighedsbekymring.

Gennemsigtighed og ansvarlighed: Der er spørgsmål om manglen på gennemsigtighed i, hvordan sådanne systemer fungerer og træffer beslutninger. Uden ordentlig tilsyn er det vanskeligt at tilskrive ansvaret for fejlagtige angreb eller civile dødsfald.

Juridiske udfordringer: AI i krigsførelse tester de eksisterende internationale humanitære love designet til menneskelige beslutningstagere. Lovligheden af AI-systemers beslutninger og handlinger i konfliktzoner er stadig under debat.

Fordele og ulemper ved slagmarkens AI:

Fordele:
Effektivitet: AI-systemer som “Lavendel” kan behandle data og identificere potentielle mål hurtigere end mennesker, hvilket kan være afgørende i hurtigt skiftende kampsituationer.
Ressourceoptimering: AI kan hjælpe med at spare på dyre ammunitioner ved at bestemme det passende niveau af kraft nødvendig for forskellige mål.
Forbedrede evner: Avanceret overvågning og analyse kan potentielt identificere trusler, som måske overses af menneskelige analytikere.

Ulemper:
Fejlmargen: Den anerkendte fejlrate for AI-systemer kan føre til fejlagtig målretning og tab af uskyldige liv.
Mangel på diskrimination: AI kan have svært ved at skelne mellem kombattanter og ikke-kombattanter, især i bymiljøer.
Eskalering af vold: Den dehumaniserede karakter af algoritmisk beslutningstagning kan føre til eskalering af vold og gøre krigstidens grusomheder mere sandsynlige.

For dem, der ønsker at udforske emnet kunstig intelligens i militære anvendelser og etikken i moderne krigsførelse nærmere, kan følgende link til et relateret domæne give omfattende information: International Committee of the Red Cross. ICRC arbejder omfattende med spørgsmål relateret til international humanitær lov, herunder brugen af nye teknologier i væbnet konflikt. Bemærk venligst, at den leverede URL er til hoveddomænet og er blevet verificeret som gyldig og relevant for emnet.

Privacy policy
Contact