Kritik af Kunstig intelligens i Krigsførelse: Konsekvenser af Automatisering og Præcision

Kunstig intelligens (AI) i krigsførelse vækker stor bekymring, da det rejser spørgsmål om forskydningen af menneskelig vilje og handlingsevne af AI-dræbende maskiner. Dog bliver AI-drevne automatiserede systemer i konventionel krigsførelse, betjent af mennesker, allerede implementeret. Troen på, at autonome systemer vil gøre menneskelig handling overflødig, er misvisende, da løftet om præcision i moderne krigsførelse antyder en reduktion i civile tab, men en stigning i dødeligheden mod kæmpende.

Et nyligt case-studie fokuserer på Israels brug af AI i krigsførelse, specifikt i Gaza. De israelske forsvarsstyrker indarbejdede AI i deres operationer for at identificere og eliminere mål. Resultatet har imidlertid ikke været præcist eller moralsk informeret. I stedet for at begrænse skader på civile, synes Israels brug af AI at have udvidet målgrupperne og potentielt resulteret i maksimal skade.

Undersøgelsen af denne problemstilling henviser til en publikation med titlen “The Human-Machine Team: How to Create Human and Artificial Intelligence That Will Revolutionize Our World,” skrevet af Brigadegeneral Y.S., kommandanten for den israelske efterretningssenhed 8200. Publikationen argumenterer for et system, der hurtigt genererer tusindvis af potentielle mål under konflikter, hvilket eliminerer behovet for menneskelig godkendelse og verifikation.

Den fælles undersøgelse af +972 og Local Call afslørede det avancerede udviklingsstadie af dette system, kendt som Lavender for de israelske styrker. Lavender går ud over tidligere AI-systemer ved at identificere militære bygninger og strukturer brugt af militante. Dog formåede selv denne form for identifikation ikke at begrænse dødstallet, hvilket resulterede i det, som nogle beskriver som en “masseudryddelsesfabrik”.

Se, hvordan den nye artikel har en anden vinkel på emnet, der skubber frem til nye perspektiver og tematikker.

FAQ:

Spørgsmål: Hvad er Lavender-systemet?
Svar: Lavender-systemet er en AI-skabelse, som bruges af de israelske forsvarsstyrker til at identificere mål i krigsførelse.

Spørgsmål: Hvor præcis er Lavender i målsætning?
Svar: Lavender-systemet er kendt for at have unøjagtigheder i målsætningen, idet det markerer personer, der har en løs eller ingen forbindelse til militante grupper.

Spørgsmål: Hvordan blev civile ofre påvirket af brugen af Lavender?
Svar: Brugen af Lavender, sammen med andre AI-platforme, resulterede i betydelige civile ofre, især i Gaza, i konfliktens indledende faser.

Kilder:

  • +972: [URL]
  • Local Call: [URL]
  • Times of Israel: [URL]

The source of the article is from the blog zaman.co.at

Privacy policy
Contact