Virkeligheden af AI-krig: Afsløring af utilsigtede konsekvenser

Den nylige brug af et kunstig intelligens (AI)-system af den israelske hær til at generere lister over mål for potentielle luftangreb i Gaza har rettet opmærksomheden mod konsekvenserne af militær AI. Ifølge en rapport offentliggjort af den non-profit publikation +972 Magazine blev systemet kendt som Lavender brugt sammen med andre AI-systemer for at målrette og likvidere mistænkte militante, hvilket resulterede i betydelige civile tab.

Mens den israelske Forsvarsmagt afviser mange af påstandene i rapporten og hævder, at Lavender ikke er et AI-system, men en database til krydsreferering af efterretningskilder, bekræfter andre kilder brugen af AI i israelske militære operationer. I 2021 rapporterede Jerusalem Post, at Israel havde benyttet maskinlæringssystemer til at identificere mål under en konflikt med Hamas. Derudover blev et AI-system ved navn Habsora nævnt i en tidligere +972-rapport, hvilket automatisk identificerer potentielle militante bygninger og faciliteter til bombning.

Potentialet for AI i militæret er ikke begrænset til Israel. Lande som USA og Kina investerer også i AI-systemer til militære formål. Tilhængere argumenterer for, at AI kan føre til hurtigere beslutningstagning, større nøjagtighed og færre tab. Der er dog bekymringer om manglen på menneskelig tilsyn og risikoen for fejl i AI-genererede mål.

Den seneste +972-rapport hævder, at Lavender automatiserer processen med målidentifikation, men muligvis har løsere kriterier og lavere bevisstandarder, hvilket fører til fejl i cirka 10% af tilfældene. Rapporten antyder også, at mål først bliver bombet i deres hjem som første valg, hvilket resulterer i civile tab.

Etiske og juridiske bekymringer omkring militær AI er stort set blevet overset. I øjeblikket er der ingen universelt accepterede eller juridisk bindende regler, der styrer dets brug. Der er dog sket visse fremskridt med at adressere disse bekymringer. De Forenede Nationer har drøftet brugen af “dødelige autonome våbensystemer” i over et årti, og FN’s Generalforsamling stemte for nylig for en udkastresolution, hvor det hævdes, at algoritmer ikke bør have fuld kontrol over beslutninger om drab. USA har også frigivet en erklæring om ansvarlig militær brug af AI og autonomi, som har fået støtte fra adskillige lande.

Trods disse bestræbelser kæmper internationale regler over brugen af militær AI for at følge med den hurtige teknologiske udvikling. Når militærer over hele verden omfavner AI-systemer til krigsførelse, bliver de utilsigtede konsekvenser og potentielle humanitære skader mere indlysende.

Løftet om præcisionskrig muliggjort af AI er endnu ikke fuldt realiseret. Rapporter om brugen af AI-systemer i Gaza viser begrænsningerne og de utilsigtede konsekvenser ved kun at stole på algoritmer til målbeslutninger. Det er afgørende at adressere de etiske og moralske dilemmaer forbundet med militær AI og sikre, at der etableres menneskeligt tilsyn og internationale regler for at forhindre misbrug af denne kraftfulde teknologi.

FAQ

1. Hvad er Lavender?
Lavender er et kunstig intelligenssystem, der bruges af den israelske hær til at generere lister over mål for potentielle luftangreb i Gaza.

2. Er brugen af AI i militæret begrænset til Israel?
Nej, andre lande som USA og Kina investerer også i AI-systemer til militære formål.

3. Hvad er bekymringerne omkring militær AI?
Der er bekymringer om manglen på menneskelig tilsyn, potentielle fejl i AI-genererede mål og de etiske og moralske implikationer ved at bruge AI-systemer i krigsførelse.

4. Er der internationale regler, der styrer brugen af militær AI?
I øjeblikket er der ingen klare, universelt accepterede eller juridisk bindende regler for militær AI. Der gøres forsøg på at adressere disse bekymringer af De Forenede Nationer og visse nationer.

5. Hvad er de utilsigtede konsekvenser ved kun at stole på AI til beslutninger om mål?
Rapporter indikerer, at brugen af AI-systemer til beslutninger om mål kan resultere i fejl, løsere kriterier og lavere bevisstandarder, hvilket fører til civile tab og humanitære skader.

The source of the article is from the blog elperiodicodearanjuez.es

Privacy policy
Contact