Ein glimt inn i slagmarka AI: Israelske militærets «Lavender» og etikken til algoritmisk krigføring

Ny militærteknologi som kjem til syne former dynamikken i moderne krigføring

I ei signifikant utvikling for militær strategi har eit konsept foreslått av «Brigader General YS» i ei bok frå 2021 blitt realisert. Teorien føreslo å skape ein dataprogramvare med høg hastighet for å identifisere ei rekke potensielle militære mål, noko som forsterkar samspillet mellom menneske og kunstig intelligens.

Konsekvensane av «Lavendel» på israelske forsvarsoperasjonar

Etterforskningsrapportar av +972 og Lokal kringkasting, avslørt av Agência Pública, fremhevar den israelske hærens utplassering av eit kunstig intelligensprogram ved namn «Lavendel». AI-en spela ei avgjerande rolle i måloperasjonar under Gaza-konflikten, særleg i innleiande fase ifølgje seks israelske etterretningsstudentar som er direkte tilknytta programmet.

Pålitelegheit til systemet og etiske implikasjonar i krigstid

Ved hjelp av «Lavendel» identifiserte militæret omlag 37 000 palestinarar som potensielle mistenkte. Tillitten var så sterk at avgjerdene til AI-en ofte vart sidestilte med menneskeleg dømmekraft, der det i gjennomsnitt blei brukt 20 sekund på kvart potensielle mål før handlingsgodkjenning. Medan AI-en i hovudsak oppnådde høg treffsikkerheit, erkjende den også ein feilmargin på 10 % og misidentifiserte av og til individ med liten eller ingen tilknytning til dei måla fraksjonane.

Kontroversielle måltaktikkar og risiko for sivilbefolkninga

AI-en hjelpte til med å gjennomføre systematiske angrep, inkludert dei som vart utført i busette område, som resulterte i mange sivile tap. Desse tapa inkluderte majoriteten kvinner, barn og ikkje-kombattantar. Ein etterretningsoffiser fremheva kor enkelt det var å målrette mot heimesider framfor militære område. Vidare, for lågrangs mål, var det betre å bruke enkle, uretta våpen for å spare på meir kostbare granatar.

Setting av føremonar i militær konfrontasjon

I eit uvanleg trekk blei det bestemt at for kvar identifisert lågrangsmilitant var det akseptabelt med opp til 15 eller 20 sivile taper – eit tal som auka betydeleg når det kom til høgarrangs funksjonærar.

Kronologi over automatisering av mål under Gaza-konflikten

I starten hadde israelske styrkar ei streng definisjon av «menneskelege mål», med fokus på høgarrangsmilitantar. Etter ei auke i fiendtlege handlingar leda av Hamas den 7. oktober 2023, blei alle personar tilknytta Hamas sin militære fløy vurdert som levedyktige mål. Når nøyaktigheita til «Lavendel» blei bekrefta gjennom prøvekontrollar, fekk dens utval lov til å fortsette utan uavhengig verifisering, noko som forenkla og auka hastigheten på beslutningsprosessen under krigshandlingar.

Konsekvensane av denne nye tilnærminga, som gjenspeila seg i data frå palestinsk helsedepartement, inkluderte eit betydeleg antall dødsoffer dei første seks vekene, der tala nesten dobla seg etter kvart som konflikten vedvara. Lavendel nyt vidstrakt overvåking av Gaza si befolkning på 2,3 millionar for å fastsetje sannsynlegheita for militant aktivitet hos kvar enkelt person.

Viktige utfordringar og kontroversar ved algoritmisk krigføring:

Algoritmisk krigføring, som den med den israelske hæren sin «Lavendel» AI-program, reiser vesentlige utfordringar og kontroversar:

– Etiske implikasjonar: Bruken av algoritmar i målavgjerder reiser etiske spørsmål om autonomi, ansvar og verdien som vert tillagt menneskelivet. Med AI-system som tek avgjerder på sekund, er det bekymringar om tilstrekkeleg menneskeleg tilsyn og mogleg dehumanisering av krigføringa.

– Sivile tap: AI-målretting kan føre til høge sivile tap om systemet misidentifiserer mål eller om proporsjonalitetsretningslinjene tillatar betydeleg sivile tap. Faren for ikkje-kombattantar, særleg i tettbefolka område som Gaza, er ein vesentleg menneskerettigheitshensyn.

– Åpenheit og ansvarlegheit: Det er spørsmål om mangelen på åpenheit kring korleis slike system fungerer og tek avgjerd. Uten skikkeleg tilsyn er det vanskeleg å tildele ansvar for mislykka angrep eller sivile dødsfall.

– Juridiske utfordringar: AI i krig testar dei eksisterande internasjonale humanitære lovene som er designa for menneskelege avgjerdstakarar. Lovligheten til AI-systema sine avgjerder og handlingar i konfliktsoner er framleis under debatt.

Fordelane og ulempene ved slagmark-AI

– Fordeler:
– Effektivitet: AI-system som «Lavendel» kan behandle data og identifisere potensielle mål raskare enn menneske, noko som kan vere avgjerande i raskt skiftande kampssituasjonar.
– Resursoptimalisering: AI kan bistå med å spare på dyre granatar ved å fastsetje rett nivå av kraft som trengs for ulike mål.
– Forbetra funksjonar: Avansert overvaking og analyse kan potensielt identifisere truslar som kan bli oversett av menneskelege analytikarar.

– Ulemper:
– Feilmargin: Den erkjente feilmarginen til AI-system kan føre til feilt målretting og tap av uskuldige liv.
– Manglande diskriminering: AI kan streve med å skilje mellom kombattantar og ikkje-kombattantar, særleg i urbane omgjevnader.
– Eskalering av vald: Den avhumaniserte naturen til algoritmiske avgjerder kan føre til ei eskalering av vald og gjere krigsåtak meir trulege.

For dei som ønsker å utforske meir om kunstig intelligens i militære anvendingar og etikken i moderne krigføring, kan følgjande lenkje til eit relatert domene tilby omfattande informasjon: International Committee of the Red Cross. ICRC tek seg av til dømes spørsmål knytta til internasjonale humanitære lover, inkludert bruken av nye teknologiar i konflikt. Ver merksam på at URL-en som er oppgjeven, fører til hovuddomenet og er stadfesta som gyldig og relevant for temaet.

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact