Exploring the Impact: Utilization of AI in Israel’s Gaza Operations

Konflikt medzi Izraelom a Hamasom v Gaze pokračuje, a devastujúce nálety izraelských síl sa stali takmer dennou udalosťou. Tieto nálety často znamenali zničenie domov významných Palestínčanov, vrátane novinárov, lekárov a humanitárnych pracovníkov, pričom prišli o život mnohí členovia rodín, vrátane detí.

Jedným takýmto incidentom bol prípad prominentného palestínskeho básnika a profesora, Refaata Alareera, ktorý počas vojny hľadal útočisko v rodinnom dome. Tragicky izraelský nálet nezobral len jeho život, ​​ale aj život jeho brata, sestry a štyroch detí. Novinári v Gaze tiež utrpeli veľké straty, pričom počet obetí medzi Palestínčanmi dosahuje minimálne 90, čím sa stal najsmrteľnejším obdobím pre novinárov v akejkoľvek modernej dobe.

Tieto strašné straty vzbudzujú nepríjemné otázky týkajúce sa správania Izraela v konflikte. Na koho sú izraelskí velitelia zameraní týmito smrteľnými údermi a ako sú tieto ciele vyberané? Nedávna investigatívna správa časopisu +972 a Lokálne volanie prinášajú na svetlo niektoré znepokojujúce odpovede, odhalujúce rozostrenú hranicu medzi umelej inteligenciou (AI) a morálkou.

Podľa správy Izraelská obranná sila od začiatku vojny v Gaze využívala program AI s názvom „Lavender“ na identifikáciu cieľov. IDF priznáva použitie AI na účely získavania informácií, ale tvrdí, že ľudské rozhodovanie zostáva kľúčové pri rozhodovaní o cieľoch. Avšak správa +972 naznačuje, že ľudské prehodnotenie ciel AI často spočíva len vo veľmi krátkom potvrdení, trvajúcom len 20 sekúnd.

Ešte znepokojujúcejšie je, že systém AI Lavender stále má chybovosť 10% v presnosti cieľov. To znamená, že existuje významné riziko omylne bombardovať osoby, ktoré majú rovnaké mená ako členovia Hamasu alebo dokonca ľudí, ktorí nedávno zdedili telefónne číslo.

Aj keď izraelská spravodajská služba identifikuje cieľ so podozrením z prepojenia na Hamas, čeliaci moralické dileme vzhľadom na prítomnosť civilistov v okolí. V prvých týždňoch konfliktu údajne izraelskí velitelia považovali za prijateľné zabiť až 15 až 20 nevinných civilistov za každého nízko postaveného operatívu Hamásu. Toto číslo sa zvýšilo na stovky pre vyššie postavených líderov Hamasu.

Správa +972 tiež uvádza, že údajní nízko postavení operatívi Hamasu sú zacelení menej presnými, takzvanými „hlúpymi bombami“, aby sa ušetrili drahšie „chytré bomby“ pre vyššie postavené osoby. Táto stratégia vedie k väčšiemu počtu nežiaducich následkov a ďalšiemu zvýšeniu počtu civilných obetí.

Možno najznepokojujúcejším odhalením je, že systém AI Lavender exceluje v sledovaní vybraných cieľov do ich domovov, kde sú nálety považované za najúspešnejšie. Bohužiaľ to znamená, že domovy týchto cieľov sa sami stávajú cieľmi, čo vedie k smrti ich manželiek, detí a ďalších členov rodiny. Šokujúco systém AI lepšie zisťuje domov cieľa ako rozhodovanie o tom, či je cieľ skutočne prítomný. To viedlo k prípadom, že celé rodiny boli zabití bezdôvodne.

Jedna operácia, osobito pomenovaná „Kde je tatino?“, Zvýrazňuje temnú realitu izraelského využívania AI v tomto konflikte. Zdá sa, že znejúce nové technológie na spôsobovanie deštrukcie, od guľometov v prvej svetovej vojne po plyn Zyklon B v nacistických koncentračných táboroch. Vzostup AI toto zvieranie dostáva na novú úroveň, kde sa rozhodnutia o živote a smrti pridelujú strojom na vyhnutie sa morálnej zodpovednosti.

Príbehy vychádzajúce z Gazy slúžia ako ostrá pripomenutie o ľudských nákladoch vojny a etických dôsledkoch spojených s využívaním AI. Je nevyhnutné pokračovať v kladení otázok a výzve na využívanie týchto technológií a zabezpečiť, aby sledovanie vojenských cieľov neprekrývalo hodnotu ľudského života.

FAQ

The source of the article is from the blog enp.gr

Privacy policy
Contact