Vznikajúce nebezpečenstvo: Adversári využívajú generatívnu umelej inteligencie pre kybernetické operácie

Nedávne zistenie a prerušenie kybernetických operácií, ktoré boli vykonávané americkými protivníkmi pomocou generatívnej umelej inteligencie (AI), odhalilo nové nebezpečenstvo v kybernetickej oblasti. Hoci techniky použité týmito adversárnymi skupinami neboli nové, ukázali potenciál veľkých jazykových modelov na výrazné zlepšenie ich útočných schopností.

Microsoft spolupracoval so svojím partnerom OpenAI a odhalil prípady, kedy sa Irán, Severná Kórea, Čína a Rusko pokúsili využiť generatívnu AI pre útočné kybernetické operácie. Microsoft zdôraznil dôležitosť verejného odhalenia týchto útokov, aj keď boli v ich začiatočných štádiách alebo inkrementálnych krokoch. Cieľom bolo zvýšiť povedomie o rozširujúcom sa využití veľkých jazykových modelov geopolitickými rivalmi na prenikanie do sietí a vykonávanie operácií ovplyvňovania.

Veľké jazykové modely, ako napríklad OpenAI ChatGPT, zásadne zmenili dynamiku v kybernetickej hre mačky a myši. Zatiaľ čo strojové učenie bolo pôvodne používané kybernetickými firmami na obranné účely, zločinci a útočnícki hackeři ho teraz tiež prijímajú. Významná investícia Microsoftu do OpenAI podčiarkuje význam tohto vývoja.

Tým, že prerušil kybernetické aktivity rôznych adversárskych skupín, odhalil Microsoft ich využitie generatívnej AI pre rôzne účely. Napríklad skupina Kimsuky z Severnej Kórey využívala tieto modely na výskum zahraničných think-tankov a tvorbu obsahu pre kampane spear-phishingu. Íránska Revolučná garda používala veľké jazykové modely na zlepšovanie techník sociálneho inžinierstva, riešenie chýb softvéru a štúdium spôsobov, ako sa vyhnúť odhaleniu v kompromitovaných sieťach.

Ruská vojenská jednotka GRU Fancy Bear sa zameriavala na výskum satelitných a radarových technológií súvisiacich s konfliktom na Ukrajine. Zatiaľ čo čínske skupiny kybernetického špionáže Aquatic Panda a Maverick Panda používali modely na preskúmanie možnosti, ako by veľké jazykové modely mohli zlepšiť ich technické operácie a zhromaždiť informácie o rôznych citlivých témach.

Zistenia Microsoftu sa zhodovali so zisteniami OpenAI, že aktuálny model ChatGPT má obmedzené schopnosti pre zákerné kybernetické úlohy, ktoré sú mimo dosahu nástrojov bez AI. Avšak potenciálne riziká spojené s budúcim rozvojom a nasadením AI a veľkých jazykových modelov v útočných kybernetických aktivitách nemožno podceňovať.

Ako odborníci varovali, Čína i umelá inteligencia boli označené ako hrozby a výzvy definujúce epochu. Zodpovedný rozvoj AI s ohľadom na bezpečnosť je nevyhnutný, pretože čoraz väčšie využívanie veľkých jazykových modelov národnými štátmi nevyhnutne povedie k ich rozvoju ako mocným zbraňam.

Kritici poukázali na rýchle uvoľnenie ChatGPT a podobných modelov a tvrdia, že zabezpečenie nebolo primerane priorizované počas ich vývoja. Niektorí kybernetickí profesionáli taktiež kritizovali postup Microsoftu a navrhovali, aby sa zameriaval na vytváranie bezpečnejších základných modelov namiesto predaja obranných nástrojov na riešenie chýb, ktoré sami prispeli.

Odhalenie a prerušenie kybernetických operácií protivníkov poukazuje na potrebu zvýšenej ostražitosti a bezpečnostných opatrení v súvislosti s rozvíjajúcimi sa technológiami AI. Ako AI a veľké jazykové modely pokračujú vo svojom pokroku, obranní aj útočnícki aktéri budú musieť prispôsobiť svoje stratégie na minimalizáciu potenciálnych rizík spojených s touto vznikajúcou hrozbou.

Často kladené otázky:

Q: Čo odhalil nedávno Microsoft v kybernetickej oblasti?
A: Microsoft odhalil a prerušil kybernetické operácie vykonávané americkými protivníkmi pomocou generatívnej umelej inteligencie (AI).

Q: Ktoré krajiny sa pokúsili o zneužitie generatívnej AI pre útočné kybernetické operácie?
A: Iran, Severná Kórea, Čína a Rusko boli identifikované ako zúčastnené krajiny.

Q: Aký je význam veľkých jazykových modelov v kybernetickej bezpečnosti?
A: Veľké jazykové modely, ako je OpenAI ChatGPT, zmenili oblasť kybernetickej bezpečnosti tým, že poskytujú obranným aj útočným aktérom nové nástroje a schopnosti.

Q: Ako tieto adversárne skupiny využili generatívnu AI?
A: Využili ju na rôzne účely, vrátane výskumu cieľov, tvorby obsahu pre kampane spear-phishingu, zlepšovania techník sociálneho inžinierstva, riešenia chýb softvéru a vyhýbania sa odhaleniu v kompromitovaných sieťach.

Q: S čím sa zhodujú zistenia Microsoftu?
A: Zistenia Microsoftu sa zhodovali so zisteniami OpenAI, že model ChatGPT má obmedzené schopnosti pre zákerné kybernetické úlohy, ktoré sú mimo dosahu nástrojov bez AI.

Q: Aké sú potenciálne riziká spojené s rozvojom a nasadením AI v útočných kybernetických aktivitách?
A: Riziká sú významné, pretože AI a veľké jazykové modely majú potenciál stať sa mocnými zbraňami v rukách národných štátov.

Q: Aká kritika sa vznesie na rýchle uvoľnenie modelov ako je ChatGPT?
A: Kritici tvrdia, že zabezpečenie nebolo primerane priorizované počas ich vývoja a kybernetičí profesionáli navrhujú zamerať sa na vytváranie bezpečných základných modelov namiesto predaja obranných nástrojov na riešenie chýb, ktoré sami prispeli.

Definície:

– Generatívna umelá inteligencia (AI): AI technológia, ktorá dokáže na základe vzorcov a príkladov naučiť sa vytvárať nový obsah, ako je text alebo obrázky.
– Veľké jazykové modely: AI modely, ktoré sú trénované na veľké množstvo textových údajov a dokážu generovať koherentný a súvislý jazyk.
– Útočné kybernetické operácie: Kybernetické aktivity s cieľom poškodiť, zneužiť alebo získať neoprávnený prístup k sieťam alebo systémom.
– ChatGPT: Veľký jazykový model vyvinutý spoločnosťou OpenAI na generovanie textových odpovedí, ktoré pripomínajú ľudský prejav v konverzačných prostrediach.
– Kampane spear-phishingu: Cieľavedomé phishingové útoky zamerané na konkrétne osoby alebo organizácie pomocou personalizovaných a presvedčivých správ.

Odporúčané súvisiace odkazy:

– Blog o kybernetickej bezpečnosti od Microsoftu
– Webová stránka OpenAI
– Agentúra pre kybernetickú bezpečnosť a infraštruktúru (CISA)

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact