Spojené státy budou posilovat technologii AI proti cizím protivníkům

Zlepšení bezpečnostních opatření AI
Bidenova administrativa přijímá preventivní opatření k ochraně nejmodernějších modelů umělé inteligence (AI) Ameriky před potenciálními protivníky, jako jsou Čína a Rusko. Tyto plány zahrnují vytvoření bariér k zabránění zneužití nástrojů AI, které analyzují obrovské množství textů a obrázků, což by mohlo umožnit kybernetické útoky nebo dokonce vývoj účinných biologických zbraní.

Vznik zkreslených reality z možností AI
AI upravená videa, která míchají fakta s fikcí, stále více infiltrovala sociální média. Takové manipulace zamazávají hranice mezi realitou a fikcí, obzvláště v polarizované politické krajině Spojených států. Navzdory existenci několik let získaly tyto manipulovaná média popularitu s představením nových nástrojů AI, jak je ukázáno softwarem Midjourney.

Zprávy ze března naznačují, že AI podporované nástroje pro vytváření obrázků od firem jako OpenAI a Microsoft mohou být zneužity k padělání fotografií šířících dezinformace o volbách nebo hlasování, ačkoli tyto společnosti mají politiky proti vytváření klamných obsahů.

Boj proti kampaním dezinformací
Kampaně dezinformací využívaly napodobování AI autentických článků jako běžný prostředek k šíření nepravdivostí. Obří internetové korporace jako Facebook, Twitter a YouTube se snaží zasáhnout do takových úprav obrázků, ale účinnost jejich snah se liší.

Příkladem dezinformace podpořené AI bylo falešné tvrzení podporované státem ovládaným čínským zpravodajským kanálem, že USA provozují biologický zbrojní laboratoř v Kazachstánu, jak uvedlo Ministerstvo domácí bezpečnosti (DHS) ve vyhodnocení hrozeb z roku 2024.

Poradce pro národní bezpečnost Jake Sullivan uznal na akci s AI ve Washingtonu, že bránit demokracii proti těmto široce rozšířeným kampaňím dezinformací je náročné, protože využívají možnosti AI s škodlivým záměrem státních a nestátních aktérů.

Rizika biologických a kybernetických zbraní
Americké zpravodajské komunity a výzkumníci jsou stále více znepokojeni riziky, která představují zahraniční škodliví aktéři přístupem k pokročilým možnostem AI. Zejména studie institucí Griffin Scientific a Rand Corporation naznačily, že velké jazykové modely (LLM) by mohly teoreticky poskytnout informace, které by asistovaly při vytváření biologických zbraní.

Jedním příkladem bylo zjištění, že LLM jsou schopny poskytnout znalosti na úrovni postdoktoranda o virových patogenech s pandemickým potenciálem. Další výzkum od Rand naznačil, že LLM by mohly asistovat při plánování a provádění biologického útoku, včetně navrhování metod aerosolové distribuce pro botulotoxin.

Co se týče kybernetické fronty, hrozby ohledně AI byly výstředně využity k vývoji nástrojů umožňujících větší, rychlejší a nezachytitelné kybernetické útoky na kritickou infrastrukturu včetně ropovodů a železnic podle hrozby DHS z roku 2024. Bylo odhaleno, že Čína a další konkurenti vyvíjejí technologie AI schopné podkopat kybernetickou bezpečnost USA, včetně útoků podporovaných AI na malwar.

Workflow Language: cs.

Privacy policy
Contact