Wykorzystanie Sztucznej Inteligencji w Wojnie Budzi Obawy Co Do Ofiar Cywilnych

Wykorzystanie sztucznej inteligencji (SI) w operacjach wojskowych staje się coraz bardziej powszechne, ale pojawiają się obawy dotyczące wpływu na ofiary cywilne. Przykładem tego jest system Lavender używany przez izraelskie siły zbrojne do pomocy w identyfikacji i namierzaniu podejrzanych bojowników Hamasu w Strefie Gazy. Jednakże istnieją poważne obawy co do skutków tego systemu dla ludności cywilnej.

System Lavender został opracowany w odpowiedzi na ataki Hamasu i miał na celu identyfikację i autoryzację zamachów na podejrzanych bojowników. Wykorzystano w nim dane dotyczące znanych działaczy Hamasu i Islamskiego Dżihadu, jak również osób luźno z nimi związanych. System ten został przeszkolony, aby rozpoznawać cechy charakterystyczne dla działaczy Hamasu, takie jak przynależność do określonych grup na WhatsAppie czy częste zmiany numerów telefonów i adresów. Palestyńczycy w Strefie Gazy byli oceniani w skali od 1 do 100 na podstawie tych cech, a ci, którzy osiągnęli określony próg, byli oznaczani jako cele do atakowania.

Mimo że system Lavender chwalił się skutecznością na poziomie około 90 procent, nadal dochodziło do błędów w identyfikacji osób, które nie były członkami wojskowego skrzydła Hamasu. Wzbudza to obawy co do możliwości celowego atakowania niewinnych cywilów z powodu wadliwych procedur identyfikacyjnych.

Jednym z najbardziej niepokojących aspektów systemu Lavender jest jego lekceważenie ofiar cywilnych. Funkcjonariusze wywiadu mieli szeroki zakres swobody, jeśli chodzi o ofiary uboczne, z uprawnieniem do zabicia określonej liczby cywilów za każdego podejrzanego bojownika Hamasu. W przypadku wyższych urzędników Hamasu, raportowano o sankcjonowaniu „setek” cywilnych ofiar ubocznych. Ponadto, namierzanie domów podejrzanych bojowników Hamasu za pomocą systemu „Gdzie jest Tata?” często prowadziło do bombardowania całych rodzin, nawet bez weryfikacji, czy cele rzeczywiście się tam znajdowały. Lekceważenie ofiar cywilnych podkreśla istotne obawy etyczne związane z wykorzystywaniem SI w wojnie.

Ponadto, pojawiły się doniesienia, że izraelskie start-upy obronne dążą do eksportu swoich technologii opartych na SI za granicę. Rodzi to obawy dotyczące wpływu na ludność cywilną poza strefami konfliktów, a także potencjał nadużycia tych narzędzi SI. Istotne są również konsekwencje etyczne związane z poleganiem na maszynach w podejmowaniu decyzji życia i śmierci.

Podsumowując, wykorzystanie SI w operacjach wojskowych, jak w przypadku systemu Lavender, budzi poważne obawy dotyczące wpływu na ofiary cywilne oraz implikacji etycznych wynikających z polegania na technologiach opartych na SI. To ważne, aby rządy i organizacje wojskowe dokładnie rozważyły potencjalne ryzyka i zapewniły, że te technologie będą używane w sposób odpowiedzialny i etyczny.

FAQ

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact