Den etiska användningen av AI i militära operationer

I en nylig avslöjande artikel har användningen av den avancerade AI-tekniken ”Lavender” av de israeliska styrkorna väckt oro. Med hjälp av denna nya teknologi har israeliska styrkor riktat in sig på tiotusentals palestinier i Gaza för att eliminera dem. Användningen av denna nya teknologi har orsakat allvarliga frågor angående målet för attackerna och har väckt diskussioner om civila offer.

Enligt en rapport sammanställd av den israeliske journalisten Yuval Abraham, som har talat med flera israeliska underrättelseofficerare under villkor av anonymitet, har Lavender spelat en central roll i den omfattande bombningen av palestinier under den pågående konflikten. Det som är särskilt oroande är att militären har behandlat resultaten från AI-maskinen som om det vore ett mänskligt beslut, vilket har lett till snabb val av mål utan noggrann verifiering.

Lavenders system är i huvudsak utformat för att identifiera potentiella mål för bombningar inom de militära grenarna av Hamas och den Palestinska islamiska Jihad (PIJ). Under konfliktens inledande veckor förlitade sig den israeliska armén kraftigt på Lavender och markerade cirka 37 000 personer som misstänkta militanter och deras hem som potentiella mål. Det bör emellertid nämnas att systemet är känt för att ha en felmarginal på cirka 10 procent, vilket ofta resulterar i att personer med lösa kopplingar eller ingen koppling alls till militanta grupper markeras som misstänkta.

En annan oroande aspekt är arméns tillvägagångssätt för attackerna. Den israeliska militären riktade främst in sig på individer medan de var hemma, ofta under nätterna när deras familjer var närvarande. Denna strategi gjorde det lättare att lokalisera målen i deras privata bostäder. Ett annat automatiserat system, känt som ”Where’s Daddy?”, användes också för att spåra de måltavlor och initiera bombningar när de gick in i sina familjehem.

Även om den israeliska armén gav brett godkännande för att anta Lavenders dödslistor, fanns det lite eller ingen krav på noggrann granskning av maskinens val eller de råa underrättelserna som besluten baserades på. Mänsklig personal reducerades till att tjäna mer som en ”gummistämpel” för AI-maskinens beslut, och spenderade så lite som 20 sekunder på att godkänna en bombning.

I konflikten fortsätter, växer oron över balansen mellan att effektivt rikta in sig på legitima hot och minimera skador på civila. Användningen av AI-teknik i krigsföring väcker komplexa etiska frågor som kräver noggrann övervägande. Att hitta rätt balans mellan precision och undvikande av civila offer är avgörande och kräver mänskligt tillsyn för att förhindra onödigt förlust av oskyldiga liv.

Vanliga Frågor och Svar (FAQ)

Vad är Lavender och hur fungerar det?
Lavender är ett avancerat AI-verktyg som används av israeliska styrkor för att markera misstänkta operatörer inom de militära grenarna av Hamas och PIJ som potentiella måltavlor för bombningar. Det använder algoritmer för att identifiera och spåra individer baserat på olika underrättelsedata.

Varför finns det oro för civila offer?
Användningen av Lavender har väckt oro eftersom, trots dess höga träffsäkerhet för att identifiera lågnivå Hamas-operatörer, systemet har en felmarginal på cirka 10 procent. Detta har resulterat i civila dödsfall och måltavlor som har lösa kopplingar eller ingen koppling alls till militanta grupper.

Varför riktade den israeliska militären främst in sig på individer i deras hem?
Att rikta in sig på individer i deras hem, ofta under natten när deras familjer var närvarande, ansågs taktiskt fördelaktigt ur ett underrättelsesperspektiv. Det gjorde det möjligt att enklare lokalisera måltavlorna och minimera skador på omgivande infrastruktur.

Vilken roll spelar systemet ”Where’s Daddy?”?
Systemet ”Where’s Daddy?” är ett ytterligare automatiserat system som användes för att spåra de måltavlor och initiera bombningar när de gick in i sina familjehem. Det arbetade i samarbete med Lavender för att säkerställa exakt timing och utförande av attackerna.

Vilka steg tas för att ta itu med bekymren?
När de etiska implikationerna och riskerna med att använda AI-teknik i krig blir tydliga, finns det en ökande efterfrågan på ökad mänsklig tillsyn och mer stränga verifikationsprocesser. Att hitta en balans mellan effektiv inriktning på legitima hot och minimering av skador på civila återstår som en utmaning som kräver ytterligare undersökning.

För mer information om ämnet och relaterade frågor inom branschen, besök gärna.

The source of the article is from the blog jomfruland.net

Privacy policy
Contact