Rozšiřující se hrozba kybernetických útoků s podporou umělé inteligence

Při snaze podniků posílit své digitální obranné mechanismy se kyberzločinci předvádějí stále sofistikovanějšími taktikami, vyzbrojenými střízlivými efekty umělé inteligence (AI). Nedávná studie ukázala na zákeřný PowerShell skript, jemuž se věří, že byl laděn pomocí generativních AI systémů podobných ChatGPT, Geminiovi nebo CoPilotovi, umožňující rychlou a strategickou produkci škodlivého kódu.

Toto znepokojivé vyústění upozornili výzkumníci kybernetické bezpečnosti z Proofpointu po jejich průzkumu skupiny TA547, která byla zodpovědná za sofistikovanou phishingovou kampaň zaměřenou na řadu německých organizací. Kyberzločinci, skrytí pod závojem společnosti Metro, známé německé maloobchodní společnosti, poslali falešné faktury a finanční dokumenty přímo plné citlivých dat.

Nebezpečná operace zahrnovala odesílání emailů s heslem chráněnými ZIP soubory obsahujícími zákeřný zástupný soubor (.LNK), který při spuštění uvolnil vzdálený PowerShell skript. Tento složitý útokový vektor umožnil pachatelům nejen odčerpávat přihlašovací údaje, ale také je aukcionovat na temných zákoutích Dark Webu.

Proslulí pod jménem Scully Spider a aktivní od roku 2017, TA547 patří mezi průkopnické aktéry hrozeb využívající malware Rhadamanthys. S neustále se rozvíjejícím nástrojovým souborem TA547 nabízí svůj malware jako službu (MaaS) jiným kybernetickým zločincům od září 2022.

Detektivové z Proofpointu zjistili zvláštní přesnost v kódu, označenou hashtagem komentářů jedinečně přiřazených ke každému skriptovému komponentu—neobvyklé pro manuálně vytvořený lidský kód. Jejich zjištění naznačují, že TA547 by mohl využívat generativní AI pro skriptovací úlohy, kde struktura PowerShell skriptu je důkazem.

Rušivý potenciál AI-generovaného malware se stává stále zřejmějším od příchodu ChatGPT od OpenAI na konci roku 2022. S hackerkými skupinami propojenými se státy jako Čína, Rusko a Írán, kteří využívají AI pro skriptovací a únikové taktiky, ani původně restriktivní ChatGPT není v bezpečí. Aaron Mulgrew slavně vytříbil bezpečnost platformy tím, že požadoval malware komponenty na díly, předvádějíc tak trvalé inovace v kybernetickém zločinu.

Aktuální tržní trendy:
Vznik a šíření AI-posílených kybernetických hrozeb představují jednu z nejnovějších trendů v odvětví kybernetické bezpečnosti. Jak podniky integrují do svých operací více řešení založených na AI, kyberzločinci nejsou daleko vzadu, zneužívají těchto stejných technologií k vývoji pokročilejších forem útoků, jako je automatizovaný phishing, AI-poháněné malware a inteligentní techniky úniku, které se mohou učit a přizpůsobovat protiopatření.

Jak soukromý, tak veřejný sektor investují velké částky do obranných mechanismů kybernetické bezpečnosti, které zahrnují AI a strojové učení (ML) pro efektivnější odhalování a reakci na takové hrozby. Tyto investice směřují k rostoucímu trhu pro bezpečnostní řešení řízené AI, který by se měl dále rozšířit, jakmile se hrozby stanou sofistikovanějšími.

Prognózy:
Očekává se, že trh s kybernetickou bezpečností bude nadále rychle růst, s AI-posílenými bezpečnostními řešeními, která si vezmou větší podíl. Trh by mohl zažít zvýšený zájem o bezpečnostní profesionály s odborností v oblasti AI a ML, protože organizace usilují o držení kroků s se vyvíjející hrozbou.

Dále, s expanzí Internetu věcí (IoT) a technologie 5G se rozšiřuje útočná plocha, takže trh s AI v kybernetické bezpečnosti také pravděpodobně uvidí nárůst poptávky po pokročilých, automatizovaných a systémech detekce a mitigace hrozeb v reálném čase.

Klíčové výzvy a kontroverze:
Jedním z klíčových problémů je etické využívání AI v kybernetické bezpečnosti. Jakmile se AI technologie stávají přístupnějšími, jejich zlomyslné využití kyberzločinci představuje zásadní hrozbu. Regulace v oblasti vývoje a využití AI pro účely kybernetické bezpečnosti jsou stále v plenkách, což vytváří šedou oblast, která by mohla být zneužita.

Navíc je rozpor mezi ochranou soukromí a bezpečností kontroverzním tématem. Bezpečnostní systémy založené na AI spoléhají na velké množství dat k učení se a predikování hrozeb, což by mohlo vést k porušením soukromí, pokud není správně řízeno.

Dochází také k neustálému zbrojnímu závodu mezi kyberzločinci a bezpečnostními experty. Hrozby posílené AI se neustále vyvíjejí, což nutí bezpečnostní profesionály neustále aktualizovat a zdokonalovat své obranné AI mechanismy, což může být nákladné a náročné na zdroje.

Výhody:
Zlepšené detekce: AI může analyzovat obrovské množství dat k detekci hrozeb rychleji a přesněji než tradiční metody.
Proaktivní prevence: AI systémy mohou předvídat a zabránit útokům předtím, než nastanou, identifikováním vzorců naznačujících zlovolnou aktivitu.
Adaptabilita: Bezpečnostní systémy řízené AI se mohou učit z nových hrozeb a přizpůsobovat své obranné mechanismy podle potřeby.

Nevýhody:
Složitost a náklady: Nasazení a udržování bezpečnostních řešení řízených AI může být složité a nákladné.
Falešné poplachy: AI se někdy může zmýlit a identifikovat neškodné aktivity jako hrozby, což vede k nepotřebným rušivým událostem.
AI Zaujatost: Pokud jsou nástroje založené na AI trénovány na zaujatých datech, mohou produkovat zkreslené výsledky vedoucí k bezpečnostním mezerám.

Pro další informace o trendech a výzvách AI v kybernetické bezpečnosti zvažte následující důvěryhodné zdroje:
FireEye
Kaspersky Lab
CyberArk

Je nezbytné, aby podniky a bezpečnostní specialisté byli informování o pokrocích v AI-posílených kybernetických hrozbách a aby neustále investovali do aktualizovaných obran, aby se udrželi před schopnostmi kyberzločinců.

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact