Integrácia umelej inteligencie do vojenských operácií

Umelá inteligencia (AI) sa stala témou obáv, keď krajiny ako Spojené štáty a Čína zaraďujú tento prvok do svojich vojenských operácií. Nedávno sa objavili správy, že Izrael využíva AI technológiu na identifikáciu cieľov na bombardovanie v Gaze, čo vyvolalo hlboké obavy o bezpečnosť civilistov a zamračené limity zodpovednosti.

Podľa Telavivského časopisu +972 Magazine a Local Call izraelsko využíval AI program nazvaný „Lavender“ na generovanie cieľov na atentáty, konkrétne Palestínčanov podozrivých z toho, že sú militantmi Hamasu. Správa tvrdí, že tento AI systém zohral významnú úlohu v nebývalej bombardovacej kampani proti Palestínčanom.

Generálny tajomník OSN Antonio Guterres vyjadril svoje znepokojenie nad využitím AI týmto spôsobom. Argumentoval, že rozhodnutia o živote a smrti, ktoré ovplyvňujú celé rodiny, by nemali byť zverené algoritmizmu. Guterres zdôraznil, že AI by malo byť silou pre dobro, prospech sveta a nie prispievať k eskalácii vojnového konfliktu a znižovaniu zodpovednosti.

Článok Yuvala Abrahama v +972 Magazine cituje izraelských zástupcov bezpečnostných služieb, ktorí mali priamy podiel na používaní AI na generovanie cieľov na atentáty. Títo zástupcovia uviedli, že vplyv programu AI Lavender bol taký veľký, že jeho výstupy boli spracovávané, akoby to boli ľudské rozhodnutia. Zoznamy na zabitie vytvorené softvérom boli schválené zástupcami a len „gumídkovali“ ľudia, napriek uznaniu, že systém robil chyby v približne 10% prípadov a občas zasiahli osoby s slabými alebo žiadnymi spojeniami s ozbrojenými skupinami.

Zdroje Abrahama tvrdia, že tisíce Palestínčanov, z nich mnohí nevinní civilisti vrátane žien a detí, boli zabití pri izraelských leteckých útokoch v raných štádiách vojny kvôli rozhodnutiam, ktoré urobil AI program. Lavender údajne vybral okolo 37 000 militantov Hamasu na atentáty, prevažne menej skúsených členov.

Využitie AI vo vojnovom konflikte kladie vážne etické otázky, ktoré vyzývajú k posúdeniu princípov medzinárodného práva. Valná väčšina OSN nedávno schválila nezáväzné uznesenie, ktoré má za cieľ podporiť rozvoj bezpečných, spoľahlivých a dôveryhodných systémov AI. Toto uznesenie však, spoluautorstva viac ako 110 krajín vrátane Číny, neriešilo vojenské využitie AI.

Izraelské ozbrojené sily (IDF) popierajú využitie AI pri identifikácii cieľov a tvrdia, že ich informačné systémy sú len nástroje, ktoré používajú analytici pri identifikácii cieľov. IDF tvrdia, že analytici sú povinní vykonávať nezávislé preskúmania, aby zabezpečili, že identifikované ciele zodpovedajú príslušným definíciám podľa medzinárodného práva a izraelských smerníc.

Zatiaľ čo presné skutočnosti v tomto prípade stále podliehajú sporom, širšia diskusia okolo vojenského využitia AI si vyžaduje opatrné zváženie. Je nevyhnutné vážiť potenciálne benefity AI v posilňovaní vojenských schopností v porovnaní s rizikami, ktoré predstavuje pre bezpečnosť civilistov, zodpovednosť a dodržiavanie medzinárodných právnych a normatívnych noriem.

FAQ:

Q: Čo je program Lavender?
A: Program Lavender je umelej inteligencia (AI) systém údajne používaný Izraelom na identifikáciu cieľov na bombardovanie v Gaze.

Q: Aké sú obavy týkajúce sa využitia Izraela AI pri označovaní bombových cieľov?
A: Obavy sa točia okolo bezpečnosti civilistov a zahmlenia zodpovednosti pri rozhodnutiach o živote a smrti. Existujú obavy o potenciálne chyby, ktoré môžu spôsobiť AI systémy a vplyv na nevinné osoby.

Q: Koľko Palestínčanov bolo zabitých v bombardovacej kampani?
A: Podľa ministerstva zdravotníctva riadeného Hamasom, bolo zabitých viac ako 32 000 Palestínčanov od odvetnej kampane Izraela po útokoch Hamasu 7. októbra.

Q: Čo o tomto probléme povedala OSN?
A: Generálny tajomník OSN Antonio Guterres vyjadril hlboké znepokojenie nad využitím AI pri označovaní cieľov na bombardovanie. Zdôraznil potrebu, aby AI slúžilo na dobro a nepomáhalo v eskalácii vojny.

Q: Čo hovorí IDF o využití AI?
A: IDF popierajú využitie AI pri identifikovaní cieľov a tvrdia, že ich informačné systémy sú len nástrojmi pre analytikov v procese identifikácie cieľov. Tvrdia, že dodržiavajú medzinárodné právo a izraelské smernice.

Zdroje:

+972 Magazine a Local Call

Valná väčšina OSN

Umela inteligencia (AI) je rýchlo sa rozvíjajúcim priemyslom s širokým spektrom aplikácií v rôznych sektoroch. Použitie AI vo vojenských operáciách sa stalo významnou obavou, najmä keď krajiny ako Spojené štáty a Čína zaraďujú tento prvok do svojich obranných stratégií. Nedávne správy o využívaní AI Izraelom na identifikáciu cieľov na bombardovanie v Gaze vyvolali vážne etické otázky a poukázali na potenciálne riziká spojené s vojenským využitím AI.

Trh s technológiou AI vo vojenskom sektore sa očakáva, že v nasledujúcich rokoch výrazne vzrastie. Podľa správy od MarketsandMarkets sa očakáva, že globálny trh s umelej inteligenciou vo vojenskom sektore dosiahne do roku 2026 11,9 miliardy dolárov, pri raste komplexného ročného rastu (CAGR) 14,5% počas predpovedného obdobia. Rastúca adopcia AI pre rôzne vojenské aplikácie, ako sú autonómne zbraňové systémy, sledovacie, riadiace systémy a detekcia hrozieb, sa očakáva, že tento rast poháňa.

Avšak použitie AI vo vojne nie je bez výziev a otázok. Jedným z hlavných problémov je potenciálny riziko pre bezpečnosť civilistov. AI systémy, hoci navrhnuté na zlepšenie presnosti a efektívnosti, môžu stále robiť chyby. Prípad izraelského programu AI Lavender, ktorý údajne zamietol tisíce Palestínčanov, vrátane nevinných civilistov, vyvoláva obavy o nezamýšľané následky spájajúce sa s výlučne rozhodovaním pomocou algoritmických metód v životne dôležitých situáciách.

Ďalším značným obavom je otázka zodpovednosti. Súčasťou procesu rozhodovania je AI, stáva sa ťažké určiť, kto by mal byť zodpovedný za výsledky. Použitie AI systémov vo vojenských operáciách vyvoláva otázky o povinnosti a dodržiavaní medzinárodných právnych a normatívnych štandardov. OSN zdôraznila potrebu ľudskej kontroly a rozhodovania v otázkach, ktoré majú významný vplyv na ľudské životy a vyzvala k zodpovednému využívaniu AI vo vojenčine.

Článok sa odvoláva na nezáväzné uznesenie prijaté Valnou väčšinou OSN, ktoré má za cieľ podporiť rozvoj bezpečných, spoľahlivých a dôveryhodných systémov AI. Avšak toto uznesenie sa nezaoberá konkrétnym problémom vojenského využitia AI. To poukazuje na ďalšiu potrebu pre ďalšie diskusie.

The source of the article is from the blog kunsthuisoaleer.nl

Web Story

Privacy policy
Contact