Využití umělé inteligence v boji vyvolává obavy o civilní oběti

Využití umělé inteligence (UI) v vojenských operacích se stává stále běžnějším, ale obavy o její dopad na civilní oběti se zvyšují. Izraelská armáda například využívá nástroj UI nazvaný Lavender k pomoci při výběru cílů bombových útoků v Gaze. Avšak podle vyšetřování izraelských publikací +972 Magazine a Local Call tento systém obětuje přesnost ve prospěch rychlosti, což má za následek smrt tisíců civilistů.

Systém Lavender byl vyvinut po útocích Hamásu 7. října s cílem identifikovat a schválit zabití podezřelých „bojovníků Hamásu“ v Gaze. Izraelská armáda popřela existenci seznamu k zabíjení, ale uznala použití Lavenderu jako nástroje pro analytiky v procesu identifikace cílů. Avšak izraelscí zpravodajští důstojníci odhalili, že nebyli povinni nezávisle ověřovat cíle vybrané Lavenderem, což efektivně znamenalo, že sloužili pouze jako razítka pro rozhodnutí stroje.

Při vytváření systému Lavender byla použita data o známých operativcích Hamás a Palestinského Islámského džihádu spolu s údaji o jednotlivcích volně spojených s Hamásem. Systém byl vyškoľen na identifikaci rysů spojených s operativci Hamásu, jako je jejich příslušnost k určitým skupinám na WhatsAppu nebo častá změna telefonů či adres. Na základě těchto rysů byli Palestiňané v Gaze hodnoceni na stupnici od 1 do 100, přičemž ti dosahující určitého prahu byli označeni jako cíle pro útoky. Systém Lavender se chlubil přibližně 90% přesností, nicméně stále docházelo k chybné identifikaci jedinců, kteří nebyli členy vojenského křídla Hamásu.

Jedním z nejotravnějších aspektů systému Lavender bylo jeho opomenutí civilních obětí. Zpravodajští důstojníci měli velkou pravomoc, pokud šlo o náhodné škody, s povolením zabít až 15 nebo 20 civilistů pro každého nižšího operativa Hamásu. Pro vedoucí představitele Hamásu bylo údajně povolené „stovky“ kolaterálních civilních obětí. Navíc bombardování domovů podezřelých operativců Hamásu pomocí systému „Kde je táta?“ často vedlo k bombardování celých rodin, aniž by bylo ověřeno, zda jsou cíle skutečně přítomny. Toto opomíjení životů civilistů zdůrazňuje značné etické obavy kolem využití UI v boji.

Systém Lavender a podobné technologie používané Izraelem v Pásmu Gazy a na Západním břehu Jordánu jsou znepokojující, zejména s ohledem na zprávy, že izraelské obranné startupy usilují o export svých technologií řízených umělou inteligencí do zahraničí. Důsledky pro civilní obyvatelstvo a možnost zneužití těchto nástrojů klade vážné otázky ohledně jejich etických důsledků.

FAQ

The source of the article is from the blog be3.sk

Privacy policy
Contact