Zastosowanie technologii sztucznej inteligencji w konflikcie izraelsko-palestyńskim

Konflikt między Izraelem a Hamasem w Strefie Gazy to dramatyczna rzeczywistość, która ma ogromne konsekwencje dla ludności cywilnej. Siły izraelskie przeprowadzają druzgocące ataki powietrzne, które niemal codziennie prowadzą do zniszczenia domów znanych Palestyńczyków, w tym dziennikarzy, lekarzy i pracowników humanitarnych, powodując śmierć licznych członków rodzin, włączając w to dzieci.

Jednym z takich tragicznych incydentów było zabójstwo znanego palestyńskiego poety i profesora, Refaata Alareera, który szukał schronienia w domu rodzinnym podczas wojny. Niestety izraelski atak nie tylko zabił jego, ale także jego brata, siostrę i czwórkę dzieci. Dziennikarze w Strefie Gazy również ponieśli ogromne straty, z liczbą ofiar śmiertelnych wynoszącą co najmniej 90 Palestyńczyków, co czyni to najbardziej śmiertelnym okresem dla dziennikarzy w każdym nowoczesnym konflikcie.

Te przerażające ofiary stawiają niewygodne pytania dotyczące postępowania Izraela w konflikcie. Kogo celują izraelscy dowódcy tymi śmiertelnymi uderzeniami i w jaki sposób są wybierani? Niedawny raport śledczy magazynu +972 i Local Call rzucił światło na te kwestie, ujawniając zatarcie granic między sztuczną inteligencją (AI) a moralnością.

Według raportu, Siły Obronne Izraela używały programu AI o nazwie „Lavender”, aby identyfikować cele w Gazie od początku wojny. IDF przyznaje, że używa sztucznej inteligencji do celów wywiadowczych, ale twierdzi, że decyzje dotyczące celów pozostają w centrum ludzkiego podejmowania decyzji. Jednak raport +972 sugeruje, że ludzkie przeglądy celów AI często sprowadzają się jedynie do krótkiej korekty, trwającej zaledwie 20 sekund.

Co jest jeszcze bardziej niepokojące, to że system AI Lavender nadal posiada wskaźnik błędu wynoszący 10% w precyzji celowania. Oznacza to znaczne ryzyko przypadkowego bombardowania osób, które mają identyczne imiona jak członkowie Hamasu, a nawet ludzi, którzy niedawno odziedziczyli numer telefonu.

Nawet jeśli izraelska inteligencja zidentyfikuje cel podejrzewany o powiązania z Hamasem, to stają w obliczu dylematu moralnego związanego z obecnością cywilów w okolicy. W początkowych tygodniach konfliktu, izraelscy dowódcy rzekomo uznali za akceptowalne zabić nawet 15 do 20 niewinnych cywilów za każdego niskiego rangą działacza Hamasu. Ta liczba wzrosła do setek dla wysokich liderów Hamasu.

Raport +972 ujawnia także, że rzekomi nisko postawieni działacze Hamasu są celowani mniej precyzyjnymi, tzw. „głupimi bombami”, aby oszczędzić droższe „inteligentne bomby” dla bardziej wysokich rangą osób. Ta strategia prowadzi do większej liczby ofiar ubocznych i zwiększa liczbę ofiar cywilnych.

Najbardziej niepokojącym odkryciem jest to, że system AI Lavender doskonale radzi sobie z namierzaniem wybranych celów aż do ich domów, gdzie uderzenia powietrzne są uważane za najskuteczniejsze. Niestety oznacza to również, że domy tych celów stają się celem samym w sobie, prowadząc do śmierci ich żon, dzieci i innych członków rodziny. Co gorsza, system AI lepiej odnajduje dom celu niż ustala, czy cel faktycznie się w nim znajduje. W rezultacie dochodzi do sytuacji, w których całe rodziny giną bez powodu.

Jedna z operacji, nazwana z grozą „Gdzie jest Tata?”, podkreśla mroczną rzeczywistość wykorzystania AI przez Izrael w tym konflikcie. Niesamowicie przypomina to historyczne zastosowanie nowych technologii do spowodowania zniszczenia, od karabinów maszynowych w czasie Pierwszej Wojny Światowej po gaz Zyklon B w nazistowskich obozach śmierci. Wzrost sztucznej inteligencji przenosi to na niepokojący nowy poziom, gdzie decyzje o życiu i śmierci są przypisywane maszynom, aby uniknąć moralnej odpowiedzialności.

Historie płynące z Gazy stanowią surowe przypomnienie o ludzkim koszcie wojny i etycznych implikacjach polegania na AI. Jest niezmiernie istotne, abyśmy nadal kwestionowali i kwestionowali wykorzystanie tych technologii, dbając o to, aby dążenie do celów militarnych nie zacierało wartości ludzkiego życia.

FAQ

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact