Realita válečného využívání AI: Odhalování nezamýšlených důsledků

Nedávné využití systému umělé inteligence (AI) izraelskou armádou k generování seznamů cílů pro potenciální nálety v Gaze přineslo pozornost k důsledkům vojenského AI. Podle zprávy zveřejněné neziskovou organizací +972 Magazine byl systém známý jako Lavender použit společně s dalšími AI systémy k zaměřování a likvidaci podezřelých militantů, což mělo za následek značný počet civilistů.

Zatímco izraelské obranné síly popírají mnohé tvrzení z této zprávy, tvrdíce, že Lavender není AI systém, ale databáze pro křížové ověřování zdroje informací, jiné zdroje potvrzují využití AI v izraelských vojenských operacích. V roce 2021 Jerusalem Post uváděl, že Izrael využíval systémy strojového učení k identifikaci cílů během konfliktu s Hamásem. Kromě toho byl v předchozí zprávě +972 zmíněn AI systém nazývaný Habsora, který automaticky identifikuje potenciální budovy a zařízení militantů pro bombardování.

Potenciál AI v armádě není omezen pouze na Izrael. Země jako Spojené státy a Čína také investují do AI systémů pro vojenské účely. Zastánci tvrdí, že AI může vést k rychlejšímu rozhodování, větší přesnosti a snížení civilních obětí. Avšak existují obavy ohledně nedostatku lidské kontroly a možnosti chyb v cílech generovaných AI.

Nedávná zpráva +972 tvrdí, že Lavender automatizuje proces identifikace cílů, ale může mít uvolněnější kritéria a nižší standardy důkazů, což vede k chybám v přibližně 10 % případů. Zpráva také naznačuje, že cíle jsou bombardovány ve svých domech jako první možnost, což má za následek civilní oběti.

Etické a právní obavy ohledně vojenské AI byly z velké části přehlíženy. V současné době nejsou žádná univerzálně přijatá nebo právně závazná pravidla pro jeho používání. Nicméně došlo k určitému pokroku při řešení těchto problémů. Organizace spojených národů diskutuje o používání „smrtících autonomních zbraní“ již více než desetiletí a Valná hromada OSN nedávno hlasovala pro návrh usnesení, který stanoví, že algoritmy by neměly být plně ve vedení rozhodnutí o zabíjení. Spojené státy také vydaly prohlášení o odpovědném vojenském využití AI a autonomie, které získalo podporu mnoha zemí.

Přestože probíhají snahy, mezinárodní předpisy o používání vojenské AI nestíhají držet krok s rychlým pokrokem technologie. Jak vojenské síly po celém světě adoptují AI systémy pro válku, nezamýšlené důsledky a potenciální humanitární škody se stávají zřejmějšími. Zprávy o použití AI systémů v Gaze ukazují na omezení a nezamýšlené důsledky spoléhání se pouze na algoritmy pro rozhodování o cílech.

Slíbený efekt precizní války umožněné AI ještě není plně realizován. Zprávy o využití AI systémů v Gaze ukazují na limity a nezamýšlené důsledky závislosti pouze na algoritmech pro rozhodování o cílech. Je důležité se zabývat etickými a morálními dilematy spojenými s vojenskou AI, zajistit, aby lidská kontrola a mezinárodní předpisy byly stanoveny pro zabránění zneužití této mocné technologie.

Časté dotazy

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact