Adverzáři se vyvíjejí: AI se stává zbraní v jejich kybernetickém arzenálu

Microsoft nedávno odhalil, že umělá inteligence (AI) je stále více využívána nepřáteli USA, konkrétně Íránem, Severní Koreou, Ruskem a Čínou, k provádění útočných kybernetických operací. Tyto země začaly využívat sílu AI technologie k organizaci útoků, což představuje významný posun v kybernetické bezpečnosti. I když tato vývojová fáze není zcela překvapující, Microsoft si uvědomuje důležitost zvyšování povědomí o těchto nových technikách.

Ve spolupráci s OpenAI, tvůrci ChatGPT, Microsoft aktivně detekuje a ruší tyto hrozby řízené AI. Partnerství mezi oběma organizacemi je v souladu s Microsoftovým závazkem k rozvoji výzkumu AI a boji proti novým kybernetickým hrozbám. Společnost však zdůrazňuje, že využívání AI v útočných kybernetických operacích není nový koncept. Byl přijat jakými zločinnými aktéry, tak i kybernetickými firmami.

Tradičně bylo strojové učení převážně využíváno kybernetickými firmami k identifikaci podezřelých aktivit v sítích. Nicméně kyberzločinci a útoční hackeři také tuto technologii přijali ve svůj prospěch. S představením velkých jazykových modelů jako je ChatGPT se hra na myš a kočku v kybernetickém světě stala sofistikovanější.

Zpráva od Microsoftu o potenciálním dopadu generativní AI na zákeřný sociální inženýring přichází v kritické době. Letos se koná více než 50 zemích voleb a hrozba dezinformace je velká. Vzestup deepfake a klonování hlasu tento problém ještě zhoršuje. S postupem AI je důležité řešit průhlednost a etické důsledky týkající se jejího využívání v kybernetických operacích.

Microsoft poskytl konkrétní příklady, jak spolupráce s OpenAI odhalila a neutralizovala hrozby poháněné AI. V případě severokorejské kyberšpionážní skupiny Kimsuky byly generativní AI modely použity k získávání informací o zahraničních think tankech a tvorbě obsahu pro spear-phishing kampaně. Na druhou stranu íránská Revoluční garda využívala velké jazykové modely k vylepšení taktik sociálního inženýrství, řešení softwarových chyb a studování metod, jak se vyhýbat odhalení v napadených sítích.

Ruská zpravodajská jednotka Fancy Bear a čínské hackerské skupiny Aquatic Panda a Maverick Panda také interagovaly s AI modely, aby posílily své technické operace, včetně výzkumu satelitních technologií a hodnocení účinnosti AI modelů jako zdrojů citlivých informací.

Vzhledem k neustálému vývoji AI je nezbytné, aby organizace jako Microsoft a OpenAI zůstaly bedlivé a aktivní při odhalování a boji proti hrozbám poháněným AI. Tato neustálá bitva poukazuje na potřebu neustálého výzkumu, spolupráce a průhlednosti v se stále vyvíjejícím prostředí kybernetické bezpečnosti.

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact