Revolusjonerande Syn på Bruken av AI i Konflikter: Balansering av Presisjon med Sivile Ofre

I ei nyleg avsløring har israelske styrkar nytta ein avansert AI-teknologi kalla «Lavender» for å målretta titusenar av palestinarar i Gaza for likvidering. Denne bruken av ny teknologi har skapt alvorlege bekymringar rundt presisjonen på måla, samstundes som det reiser spørsmål om sivile ofre.

I følgje ein rapport av den israelske journalisten Yuval Abraham, som har snakka med fleire israelske etterretningsoffiserar under vilkår av anonymitet, har Lavender spelt ei sentral rolle i dei uhørde bombingane av palestinarar under den pågåande konflikten. Det som er særs alarmerande, er at militæret har handla ut frå outputen frå AI-maskina som om det var eit menneskeleg val, noko som har ført til rask utveljing av mål utan grundig verifisering.

Lavender-systemet er hovudsakleg designa for å identifisera potensielle bombingmål innanfor militære grenene til Hamas og den palestinske Islamske Jiha ved (PIJ). I løpet av dei første vekene av konflikten, stolte den israelske hæren tungt på Lavender, merka omtrent 37 000 enkeltpersonar som mistenkte militantar og deira heimar som potensielle mål. Det bør imidlertid nemnast at systemet har ein feilmargin på rundt 10 prosent, og ofte merkar enkeltpersonar med løse tilknytingar eller ingen tilknyting i det heile tatt til militante grupper.

I tillegg er ein urovekkjande aspekt måten militæret gjekk fram på for å målrette. Den israelske hæren angreip hovudsakleg enkeltpersonar medan dei var heime, ofte om natta når familiane deira var til stades. Denne strategien gjorde det enklare å lokalisera måla i deira private heimar. Ei anna automatisk system, kjend som «Kvar er Pappaen?», vart òg brukt for å spore opp dei målretta enkeltpersonane og starta bombing når dei gjekk inn i familieheimane sine.

Sjølv om den israelske hæren gav utbreidd godkjenning for å adoptera Lavender sine dødslistar, var det lite eller ingen krav til ein grundig undersøking av maskina sine val eller dei rå etterretningsdataene som beslutningane var baserte på. Menneskeleg personell vart redusert til å tjene meir som ein «gummistempel» for AI-maskina sine avgjerder, og brukte så lite som 20 sekund på å autorisera ein bombing.

Sjølv med kjente feil i systemet, avdelte militæret til å løyse det tillatte talet på sivile som kunne bli drept under bombinga av eit mål. Dessutan kalkulerte den automatiske programvaren feilaktig talet på ikkje-kombattantar i kvar husstand, noko som ytterlegare auka risikoen for sivile ofre.

Som konflikten held fram, veks bekymringane for balansen mellom å målrette reelle truslar effektivt og minimere skade på sivile. Bruken av AI-teknologi i krigføring reiser komplekse etiske spørsmål som krev nøye vurdering. Å finna rett balanse mellom presisjon og å unngå sivile ofre er avgjerande og krev menneskeleg tilsyn for å hindra unødvendige tap av uskuldige liv.

Frequently Asked Questions (FAQ)

1. Kva er Lavender og korleis fungerer det?
Lavender er eit avansert AI-verktøy brukt av israelske styrkar for å merka mistenkte operativar innanfor dei militære grenene til Hamas og den palestinske Islamske Jiha ved (PIJ) som potensielle bombingmål. Det brukar algoritmar for å identifisere og spore enkeltpersonar basert på ulike etterretningdata.

2. Kvifor er det bekymringar om sivile ofre?
Bruken av Lavender har reist bekymringar fordi, til tross for høg nøyaktigheit i å identifisere lågsakte Hamas-operativar, har systemet vist ein feilmargin på omtrent 10 prosent. Dette har resultert i sivile dødsfall og målretta enkeltpersonar med løse tilknytingar eller ingen tilknyting i det heile tatt til militante grupper.

3. Kvifor målretta den israelske hæren hovudsakleg enkeltpersonar i deira heimar?
Målretting av enkeltpersonar i deira heimar, ofte om natta når familien deira var til stades, vart vurdert som taktisk fordelaktig ut frå eit etterretningsperspektiv. Det gjorde det mogleg å enklare lokalisera måla og minimera skade på omkringliggjande infrastruktur.

4. Kva rolle spelar «Kvar er Pappaen?»-systemet?
«Kvar er Pappaen?»-systemet er eit tilleggsautomatisert system brukt for å spore opp dei målretta enkeltpersonane og starta bombing når dei gjekk inn i familieheimane sine. Det arbeidde saman med Lavender for å sikra presis timing og utføring av angrepa.

5. Kva steg blir tatt for å adressera bekymringane?
Som dei etiske implikasjonane og risikoane ved å bruka AI-teknologi i krigføring blir tydeleg, er det ei aukande oppmoding til auka menneskeleg tilsyn og strengare verifiseringsprosessar. Å finna ein balanse mellom å målrette reelle truslar effektivt og minimere skade på sivile er ei utfordring som krev ytterlegare eksaminering.

For meir informasjon om temaet og relaterte saker i industrien, kan du besøka [domain].

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact