Programy IA z Izraela, Lawenda i Gdzie jest Tata?, kluczowe w kampanii bombardowania Strefy Gazy

Izraelskie systemy sztucznej inteligencji (AI) miały dramatyczny wpływ na operacje kampanii bombardowania Strefy Gazy, jak ujawnił izraelski portal medialny +972mag. Program znany jako Lavender był kluczowy w wyborze celów bombardowań poprzez ocenę prawdopodobieństwa, że mieszkańcy Gazy są związani z zbrojnym skrzydłem Hamasu. Innym narzędziem AI było What’s Daddy?, które miało istotne znaczenie w określeniu, kiedy ci ludzie wracali do domu, co wywoływało potencjalne decyzje o nalotach.

Decyzja o uderzeniu wymagała interwencji człowieka tylko na dwadzieścia sekund przed zezwoleniem na bombardowanie domu, zazwyczaj przy użyciu bomb nierządowych, które często redukowały do zera całe budynki. Ustalone zasady dotyczące przypadkowych ofiar wahały się: mało znaczący członkowie mogli usprawiedliwiać nawet do dwudziestu niezamierzonych ofiar, podczas gdy uderzenia w dowódców mogły spowodować kilkuset.

Ta metodyka wyraźnie kontrastuje z zasadami wojny i proporcjonalności. Obawy stają się bardziej zauważalne z uwagi na podatność AI na błędy na każdym etapie podejmowania decyzji. Rzecznik wojskowy Izraela, 10 października 2023 roku, sugerował, że ich strategiczny nacisk był skierowany na wielkość szkód, a nie na precyzję uderzenia.

Badanie w głębi tematu czasopisma +972mag opiera się na sześciu izraelskich źródłach wojskowych, wcześniejszych wielkich doniesieniach prasowych oraz pracy reportera z Jerozolimy Yuvala Abrahama. Ta analiza podkreśla kłopotliwy charakter uzasadnień władz Izraela, zwracając uwagę na niezgodności z wcześniejszymi oświadczeniami.

Inne wsparcie dla dochodzenia to książka z 2021 roku autorstwa szefa elitarnej jednostki wywiadowczej, wykłady z materiałami wizualnymi na Uniwersytecie Telawiwskim w 2023 roku oraz krytyczne spojrzenie na liczbę ofiar cywilnych podczas początkowych tygodni bombardowania. Dowody są zgodne z twierdzeniami CNN, że połowa amunicji użytej w Gazie to „głupie bomby”.

Program Lavender wykorzystywał „głębokie uczenie” do odróżniania typowych profili członków Hamasu od ogółu ludności Gazy, bazując na rozległych danych z nadzoru. Niestety, wskaźnik błędów na poziomie 10% w celowaniu w „niewinnych” – jak wspólne nazwiska lub urządzenia łącznościowe – wpłynął na jego efektywność.

Po wyznaczeniu celu przez Lavender, Where’s Daddy? śledził i sygnalizował powrót osoby do domu, co często prowadziło do ofiar niezaangażowanych członków rodzin i sąsiadów. Ten dwuetapowy system AI jest powiązany z tym, co może być postrzegane jako zbrodnie wojenne, ponieważ często prowadził do bombardowań bez rozróżnienia, mających wyraźny wpływ na dzieci i struktury cywilne.

Fakty i Rozważania dotyczące Tematu:

– Izrael ma historię działań wojskowych w Strefie Gazy, terytorium kontrolowanym przez Hamas, uważanego przez Izrael, Stany Zjednoczone i Unię Europejską za organizację terrorystyczną. Te działania często prowadzą do ofiar wśród ludności cywilnej, co stwarza międzynarodowe obawy.

– Sztuczna inteligencja w zastosowaniach wojskowych stanowi kontrowersyjną kwestię na skalę globalną. Technologie AI takie jak Lavender i Where’s Daddy? stawiają pytania etyczne dotyczące automatyzacji wojny i znaczenia osądu ludzkiego w podejmowaniu decyzji ośmielenia.

– Technologia za programami AI typu Lavender opiera się na uczeniu maszynowym i analityce predykcyjnej, które wymagają dużych zbiorów danych do dokładnych przewidywań. Źródła danych tych programów nie są szczegółowo opisane w artykule, ale mogą obejmować nagrania z nadzoru, wywiad sygnałowy i wywiad ludzki.

Najważniejsze Pytania i Odpowiedzi:

1. Jak dokładne są programy AI takie jak Lavender i Where’s Daddy?
Program Lavender przypuszczalnie ma wskaźnik błędów na poziomie 10% w odróżnianiu między typowymi członkami Hamasu a cywilami. Ten wskaźnik błędów może prowadzić do znaczącej liczby ofiar cywilnych w gęsto zaludnionych obszarach, takich jak Gaza.

2. Jakie są konsekwencje prawne związane z użyciem takich systemów AI w operacjach wojskowych?
Wykorzystanie AI w operacjach wojskowych może stawiać wyzwania przed obowiązującym prawem międzynarodowym, zwłaszcza w odniesieniu do zasad rozróżnienia i proporcjonalności w ramach prawa konfliktu zbrojnego. Te prawa nakazują, aby walczący rozróżniali między celami wojskowymi a cywilami i zapewniali, że przypadkowa strata życia cywilnego nie jest nadmierna w stosunku do przewidywanych korzyści militarnych.

3. Jak izraelskie wojsko uzasadnia stosowanie decyzji opartych na AI do bombardowań?
Jak sugeruje komentarz rzecznika, który priorytetowo traktował wielkość szkód ponad precyzję uderzenia, Izraelskie wojsko uważa, że celowanie w liderów Hamasu i infrastrukturę zapewnia znaczącą korzyść militarną. Jednak krótki czas decyzji i możliwość znacznej liczby ofiar cywilnych stwarzają poważne dylematy etyczne i prawne.

Najważniejsze Wyzwania i Kontrowersje:

– Dylemat etyczny: Wykorzystanie systemów AI w wojnie stawia pytania etyczne, szczególnie gdy chodzi o decyzje o życiu i śmierci z krótkim czasem reakcji na interwencję ludzką.

– Ofiary cywilne: Potencjał na wysokie liczby ofiar cywilnych przy użyciu tych systemów doprowadził do międzynarodowej krytyki oraz zarzutów o nieproporcjonalność i możliwe zbrodnie wojenne.

– Przejrzystość i Odpowiedzialność: Istnieją ciągłe wezwania do większej przejrzystości i odpowiedzialności ze strony Sił Obronnych Izraela (IDF) w sprawie ich zasad zaangażowania oraz korzystania z tych systemów AI w praktyce.

Zalety i Wady:

Zalety:
– Zwiększona efektywność i prędkość w identyfikacji celów.
– Potencjał zakłócenia zdolności dowódczych i kontrolnych Hamasu bez potrzeby działań lądowych.

Wady:
– Wysokie ryzyko ofiar cywilnych z powodu błędów i niezdolności systemów AI do w pełni zrozumienia złożonych realiów ludzkiego życia.
– Potencjalna eskalacja konfliktu z powodu postrzegania siły bez rozróżniania i nieproporcjonalnej odpowiedzi.
– Obrażanie międzynarodowej reputacji Izraela i prowadzące do dalszych potępienia.

Aby dowiedzieć się więcej na temat konfliktu izraelsko-palestyńskiego i wykorzystania AI w kontekście wojskowym, zapraszamy do odwiedzenia poniższych powiązanych linków:

Human Rights Watch: Sztuczna inteligencja i Wojna

Międzynarodowy Komitet Czerwonego Krzyża: Sztuczna Inteligencja

Prosimy zauważyć, że ponieważ nie mogę zweryfikować dokładnych adresów URL, należy zachować ostrożność i upewnić się o ich poprawności przed ich otwarciem.

The source of the article is from the blog be3.sk

Privacy policy
Contact