AI u kibernetičkoj sigurnosti: Novi izazovi i mogućnosti

U svijetu u kojem se kibernetičke prijetnje neprestano razvijaju, organizacije se moraju prilagoditi i koristiti napredne tehnologije kako bi ojačale svoje kibernetičke obrane. Pojava umjetne inteligencije (AI) predstavlja i prilike i izazove u ovom pejzažu. I dok AI ima potencijal da revolucionizira kibernetičku sigurnost, može biti iskorišten i od zlonamjernih aktera.

Tradicijski, phishing emailovi bili su laki za prepoznati zbog gramatičkih i pravopisnih pogrešaka. Međutim, uz pomoć AI, hakeri sada mogu kreirati sofisticirane poruke koje zvuče profesionalno i uvjerljivo. Prošlog mjeseca, zaposlenik jedne banke u Hong Kongu postao je žrtva kompleksne prevare pomoću deepfake AI tehnologije, što je rezultiralo gubitkom od 37,7 milijuna dolara. Hakeri su kreirali AI verzije kolega tog muškarca tijekom video konferencije, prevareći ga da izvrši transfer.

Deepfake tehnologija nije ograničena samo na imitiranje pojedinaca u video pozivima. U dokumentiranom slučaju, jedna Amerikanka primila je telefonski poziv od osobe koja se predstavila kao svekrva. Pozivatelj je prijetio njezinim životom i tražio novac. Kasnije se otkrilo da je prevarant koristio AI klon glasa njezine svekrve. Ovi incidenti ističu potencijalne opasnosti od AI-generiranih “deepfakeova.”

I dok AI omogućuje deepfakeove koji predstavljaju budući rizik, organizacije već koriste alate temeljene na AI-u za obranu u kibernetičkoj sigurnosti. Na primjer, National Australia Bank suočava se s otprilike 50 milijuna pokušaja hakiranja svakog mjeseca. Iako je većina tih pokušaja automatizirana i relativno trivijalna, uspješan provaljivanje može imati ozbiljne posljedice. Prosječnom hakiranju potrebno je 72 minute za pristup korporativnim podacima nakon što dobiju pristup. To ističe hitnost organizacija da brzo detektiraju i odgovore na potencijalne provalne pokušaje.

AI alati imaju značajnu ulogu u poboljšanju mogućnosti kibernetičkih timova sigurnosti. Ovi alati pomažu analitičarima da pročešljaju velike količine log podataka kako bi identificirali anomalije i potencijalne prijetnje. Korištenjem AI-a, organizacije mogu efikasnije detektirati i odgovoriti na kibernetičke prijetnje, smanjujući rizik od velikih povreda podataka i napada ransomwarea.

Međutim, AI nije samo štit za obrambene igrače; može biti i moćno oružje za napadače. Zlonamjerne grupe sve više koriste AI pogonjene pokušaje prijevare, poput sinteze glasova i deepfakeova, kako bi zavarale žrtve i zaobišle sigurnosne mjere. Kao obrambeni igrači, organizacije moraju iskoristiti puni potencijal AI-a kako bi učinkovito suzbile ove prijetnje.

Osim AI alata, organizacije također trebaju promicati svijest o kibernetičkoj sigurnosti među svojim osobljem. Osnovni praktični savjeti, poput izbjegavanja hitnih ili sumnjivih zahtjeva te provjere autentičnosti poruka, mogu znatno pomoći u sprječavanju AI-generiranih napada. Zaposlenici trebaju primjenjivati kritičko mišljenje i ne uzimati sve zdravo za gotovo.

Iako su rizici povezani s AI-generiranim hakiranjeistiniti, područje “adverzalnog strojnog učenja” istovremeno raste. Organizacije moraju adresirati etičke brige i potencijalne pristranosti u AI sustavima kako bi osigurale svoju sigurnost. Zaštita od prijetnji AI-a zahtijeva višestruki pristup koji kombinira tehnološka rješenja s ljudskim budnostima.

Dok se pejzaž kibernetičke sigurnosti nastavlja mijenjati, organizacije moraju prihvatiti AI kao nezamjenjivu alatku u neprekidnoj borbi protiv kibernetičkih prijetnji. Iako rizici postoje, kada se pravilno implementira, AI može biti snažan saveznik u osiguravanju osjetljivih podataka i sprječavanju zlonamjernih aktivnosti.

FAQ

The source of the article is from the blog scimag.news

Privacy policy
Contact