Nyskapande krigføring: Israels hær brukar AI for målretting i Gaza-konflikten

Ein undersøking har avdekka at Israels militær har integrert kunstig intelligens (AI) i den pågåande sju månadar lange konflikten i Gaza, og set ein presedens som den første militære krafta til å nytte AI til dødelege føremål. Dei undersøkande journalistane frå Israel har avdekka operasjon «Lavender» – eit system som samlar store mengder data for å identifisere potensielle mål.

AI samanstell lister over enkeltpersonar for eliminering, ved å nytte informasjon slik som bustad, bevegelsar, tilver på sosiale medium, fotografi og til og med personlike relasjonar. Meron Rapoport, redaktøren av +972 Magazine, skildra prosedyren som i grunn og grunn å lage ein liste som tilsvarar dødsdomar.

Avsløringa bygger på personlege reknestykker frå seks aktive medlemmar av Israels forsvarsmakt sin (IDF) elite cyber etterretningseining, som styrer Lavender-prosjektet. Militæret sine kriterium opnar for ein signifikant mengd sivile tilfeldige offer, og meiner opp til 15-20 er akseptable for standardmål, med aukande tal, potensielt i hundrevis, for høyt prioriterte mål.

Sjølv om AI ikkje klemmar av avtrekkaren, legg presset soldatane for å handle ut frå AI-genererte mål framdjupande bekymringar. Slike taktikkar haratt opptekt granskingar og bekymringar frå menneskerettsorganisasjonar og Dei sameinte nasjonar, sidan konsekvensane av storskala bruk av AI i militære operasjonar utfordrar både rettslege og etiske standarder for krigføring.

Å forstå Kunstig Intelligens i Krigføring

Nøkkelspørsmål og Svar:
– Kva er «Operasjon Lavender»?
Operasjon Lavender refererer til ein militær inisiativ der AI vert nytta for å samle lister over individ for mogleg eliminering basert på ulike data, inkludert personleg informasjon og relasjonar.

– Korleis rettar AI individ?
AI-systemet identifiserer potensielle mål ved å analysere eit breitt spekter av datakjelder som sosiale medium, bustad, bevegelsar, personlege tilkoplingar og fotografi.

– Kva er dei etiske implikasjonane av å nytte AI på denne måten?
Det er ein betydeleg debatt om dei moralske konsekvensane ved å nytte AI i militære operasjonar, særleg med omsyn til potensialet for auka tilfeldige skader og etikken ved å delegere liv-eller-død-beslutningar til algoritmar.

Nøkkelutfordringar og Diskusjonar:
– Moralske og Rettslege Bekymringar:
Bruken av AI for målretting i militære operasjonar har ført til diskusjonar om lovligheten og overhald av internasjonale krigslover. Beslutningsprosessen til AI manglar den komplekse menneskeleg døminga som er nødvendig for å handtere dei etiske omsyna til krigføring.

– Ansvar:
Når AI-system er involvert i dødelege beslutningar, blir det betydeleg meir komplisert å fastslå kven som er ansvarleg for feil eller ulovlege dødsfall.

– Data pålitelegheit:
Nøyaktigheita av AI-målrettinga er tungt avhengig av kvaliteten og integriteten til dataene som blir matet inn i systemet, som kan vere gjenstand for manipulasjon eller feil.

Fordeler og Ulemper:
– Fordelar:
– Auka Effektivitet: AI kan behandle og analysere data mykje raskare enn menneske, potensielt førande til raskare identifikasjon av truslar.
– Forbetra Overvaking: AI-system kan overvake eit breitt spekter av kjelder og filtrere gjennom massive mengder informasjon for å identifisere mønster eller mistenkeleg oppførsel.
– Redusert Risiko for militært personell: Å nytte AI i konfliktsonar kan minimere behovet for støvlar på bakken, og kan potensielt redusere militære tap.

– Ulemper:
– Tilfeldige Skader: Det er ein risiko for høge sivile offer, sidan AI kanskje ikkje har evna til å skilje mellom stridsmenn og ikkje-stridsmenn effektivt.
– Etiske Dilemma: Delegering av liv-og-død-beslutningar til algoritmar reiser djupgripande etiske spørsmål om menneskelivet sin hellagd og engasjementsreglane.
– Sikkerheitsrisiko: Overavhengigheit av AI kan føre til sårbarheiter, som hacking eller systemsvikt, som kan kompromittere militære operasjonar.

Dersom du er interessert i å utforske emnet AI i militære applikasjonar meir, kan du besøkje den relaterte lenka: United Nations Office for Disarmament Affairs

Det er viktig å merkje at som ein AI har eg ikkje live tilgang til noverande databasar eller internett, så ver venleg og forsikre deg om at eventuelle URL-ar som blir gitt ovenfor er gyldige og relevante på tida for di førespurnad.

Privacy policy
Contact