Förbättrade AI-taktiker i konflikter väcker debatt om etik och noggrannhet

Artificiell intelligens tar ledningen inom militär strategi under Gazakonflikten

I en drastisk avvikelse från traditionell krigföring har Israels försvarsmakt starkt förlitat sig på artificiell intelligens (AI) i sina senaste operationer mot Hamas i Gaza. Militären bekräftade i februari 2023 att AI spelade en avgörande roll i valet av mål för deras attacker. Efterforskningar av israelisk media, granskade och verifierade av internationella partners, antyder att AI:s roll kan vara mer betydande än vad som tidigare avslöjats.

Innan den 7 oktober hade AI-systemet ”Gospel” använts för att sammanställa listor över potentiella attackmål, bestående av byggnader och positioner med militär betydelse. I en ny utveckling har programmet ”Lavender” nu införts, kapabelt att snabbt generera omfattande listor med tusentals personer som klassificeras som terrorister.

Enligt resultat från israeliska plattformar ”+972” och ”Local Call” identifierades ungefär 37 000 personer associerade med Hamas under den första fasen av konflikten genom ”Lavender”. Trots att militären insisterar på att mänskligt omdöme fortfarande är den ultimata auktoriteten i målutval, föreslår sex officerare från underrättelseenheten 8200, som alla har uttalat sig under anonyma förhållanden, en alternativ berättelse.

Algoritmer som ”Gospel” och ”Lavender”, skapade av enhet 8200, utgör grunden för luft-, sjö- och markoperationer. I de tidiga skedena av striden genomförde militären slumpmässiga kontroller på AI-genererade listor och upptäckte att ”Lavender” felaktigt identifierade civila som terrorister i 10% av fallen. Denna felprocent, som militären ansåg vara ”tillräckligt låg”, ledde enligt uppgift till en tillfällig ökning av AI:s självständighet i beslutsfattandet.

Officerarna tillskriver den höga förlusttakten till förändringar av stridsreglerna, vilket möjliggjorde en mer liberal användning av våld och resulterade i dödsfall bland lägre rankade Hamas-medlemmar i privata bostäder. För att minska kostnaderna för precisionsangrepp valde armén frekvent mindre exakta ”dumma bomber”, vilket orsakade en oavsiktlig ökning av civila offer.

Sådana anklagelser avvisas kraftfullt av militären, men jämförelser av dödsoffer med tidigare Gazakonflikter tyder på en minskning av precisionen. Femtio dagar in i den nuvarande konflikten uppskattades 15 000 dödsfall, vilket skarpt kontrasterar med de 2 300 liv som gick förlorade på 49 dagar under Gazakriget 2014.

Förespråkare för AI i krigföring hävdar att det erbjuder snabbare och mer exakt beslutsfattande än mänskliga processer. Om dock mänsklig verifiering verkligen är avgörande, medför det en begränsning av AI:s operationella hastighet och kan potentiellt upphäva dess strategiska fördelar.

Kritiker menar att AI endast kan ge en illusion av objektivitet, påverkad av utvecklarnas partiska synsätt. Forskning från Stanford University varnar för att militär AI kan agera mer aggressivt än mänskliga befälhavare. Användningen av AI i stridszoner som Gaza väcker viktiga frågor om utvecklingen av vapen och utvecklingen av internationell krigslag.

Viktiga utmaningar och kontroverser förknippade med förbättrade AI-taktiker i konflikter:

Morala och etiska överväganden: En betydande oro uppstår kring de etiska konsekvenserna av att använda AI för att fatta dödliga beslut. Det pågår debatt om maskiner bör ha förmågan att avgöra vem som ska leva och vem som ska dö, särskilt med tanke på felprocent som kan leda till civila offer.

Noggrannhet och felprocent: En felprocent på 10% vid identifiering av mål är oroande med tanke på risken för oskyldiga offer. Kritiker hävdar att ingen felprocent är godtagbar i sådana frågor och att den tröskel som militären anser vara ”tillräckligt låg” kanske inte är allmänt acceptabel.

Mänsklig tillsyn: Trots användningen av AI är det tydligt att mänskligt omdöme fortfarande är nödvändigt för att säkerställa AI-besluten är korrekta. Debatten kretsar kring hur mycket mänsklig verifiering som behövs och om fördelarna med AI upphävs av begränsningarna som mänsklig tillsyn medför.

Ansvarighet: När AI-system fatta kritiska beslut råder en stor kontrovers kring frågan om ansvar, särskilt när saker går fel. Att fastställa vem som är ansvarig för AI:s handlingar i en militär kontext är komplicerat och olöst.

Utvecklingen av internationella lagar: Nuvarande internationella krigslagar omfattar kanske inte fullt ut användningen av AI i konflikter. Utvecklingen av sådana avancerade teknologier utmanar de befintliga juridiska ramverken och kräver en omprövning av internationella krigslagar.

Fördelar med förbättrade AI-taktiker i konflikter:

Hastighet i beslutsfattandet: AI kan bearbeta information och fatta beslut betydligt snabbare än människor, vilket kan vara avgörande i det snabbrörliga krigets sammanhang.

Omfattande dataanalys: AI kan analysera stora mängder data för att identifiera mönster och mål som kanske missas av mänsklig intelligens.

Nackdelar med förbättrade AI-taktiker i konflikter:

Risk för civila offer: Som indikerat av felprocenten kan användningen av AI i militära operationer leda till civila offer, vilket underminerar principen om åtskillnad enligt krigets lagar.

Avhumanisering av konflikten: Att förlita sig på AI för konfliktoperationer kan leda till en avhumanisering av krigföringen, där den personliga kostnaden för striden döljs bakom algoritmer och datapunkter.

Spridning av ansvarighet: Ansvarighetskedjan kan försvåras när AI-system används för att fatta kritiska beslut, vilket komplicerar ansvarsfördelningen vid olagliga handlingar.

För ytterligare information och forskning om artificiell intelligens och dess relation till krigföring, etik och lag, överväg att besöka följande respekterade källor:

SRI Internationals AI Center för insikter om den senaste AI-forskningen och utvecklingen.
Stanford Law School, särskilt för publikationer och diskussioner om de juridiska konsekvenserna av att använda AI i konflikter.
RAND Corporation för omfattande analys av AI i militära strategier och dess bredare implikationer för försvarspolitiken.

Observera att dessa länkar bör besökas med försiktighet och kan komma att ändras. Det rekommenderas alltid att besöka de officiella webbplatserna för den mest aktuella och pålitliga informationen.

https://youtube.com/watch?v=Fdgh1JuKeXI+

The source of the article is from the blog elblog.pl

Privacy policy
Contact