Svibanj 2024: Pojava AI sljedeće generacije postavlja povećane sigurnosne rizike cyber sigurnosti.

Otkrivanje naprednih verzija umjetne inteligencije od strane glavnih globalnih tehnoloških tvrtki poput OpenAI-jevog GPT-4o i Googleovog Gemini 1.5 Pro u svibnju 2024. označilo je značajan skok u pametnim značajkama usmjerenim na optimizaciju korisničkog iskustva. Međutim, uz ove korake dolazi eskalacija scenarija online prijevara.

Ekspoencijalni rast prijetnji kibernetičke sigurnosti

Tijekom nedavnog seminara, vietnamski zamjenik ministra informacija i komunikacija, Phạm Đức Long, raspravljao je o stalno rastućim incidentima kibernetičkih napada koji postaju sve sofisticiraniji i kompleksniji. Taj rast, potaknut kombinacijom umjetne inteligencije, pojačava potencijalne prijetnje s kojima se korisnici suočavaju, omogućujući kriminalcima da s lakoćom stvaraju nove zlonamjerne programe i složene prijevare.

Izvješće Nacionalne agencije za kibernetičku sigurnost istaknulo je visoke troškove kibernetičkih rizika povezanih s umjetnom inteligencijom, koji iznose preko 1 bilijun USD u globalnoj šteti. Samo je Vijetnam pretrpio financijske posljedice procijenjene između 8.000 i 10.000 milijardi VND. Trenutno se primjena umjetne inteligencije u imitaciji glasova i karakteristika lica za prevarne svrhe naglo povećava.

Procjene sugeriraju da bi do 2025. godine moglo biti oko 3.000 kibernetičkih napada u sekundi, zajedno s 12 novih vrsta zlonamjernih programa i 70 ranjivosti svaki dan.

Deepfake tehnologija širi kriminalne alate

Nguyễn Hữu Giáp, direktor tvrtke BShield koja nudi sigurnosna rješenja za aplikacije, tvrdi da kreiranje lažnih slika i glasova nije teško s trenutnim napretkom tehnologije umjetne inteligencije. Počinitelji zločina lako mogu prikupiti korisničke podatke objavljene na društvenim mrežama ili putem prijevara poput online razgovora za posao. BShield-ove simulacije prikazale su kako prevarant može umetnuti postojeće lice s video poziva na krivotvorenu osobnu iskaznicu, spojiti je s funkcionalnim tijelom kako bi prevario sustave eKYC-a, te se tada prepoznati kao stvarna osoba.

S aspekta korisnika, IT stručnjak Nguyễn Thành Trung iz Ho Ši Minh City-a izražava svoje brige o lakoći s kojom zloćudni akteri mogu iskoristiti umjetnu inteligenciju poput chatGPT-a za generiranje phishing e-mailova koji oponašaju legitimnu komunikaciju banaka ili uglednih subjekata, ponekad sadržeći zlonamjerne privitke koji su spremni kompromitirati nepažljivog korisnika.

Važna pitanja i odgovori:

Kako povećanje prijetnji kibernetičke sigurnosti vođeno umjetnom inteligencijom utječe na tvrtke i pojedince? S naprednom umjetnom inteligencijom, kibernetički kriminalci mogu izvesti sofisticirane napade koji mogu rezultirati krađom osjetljivih podataka, financijskim gubicima i oštećenjem reputacije. I tvrtke i pojedinci sve su ranjiviji na ove rizike, što zahtijeva pojačane sigurnosne mjere i osviještenost.

Kakvu ulogu igra deepfake tehnologija u kibernetičkim rizicima? Deepfake tehnologija, koja stvara uvjerljive lažne slike i glasove, predstavlja značajne rizike jer se može koristiti za imitaciju osoba, manipulaciju percepcije i olakšavanje prijevara. Njena pristupačnost i dostupnost čine je rastućom brigom za kibernetičku sigurnost.

Koje su poteškoće u borbi protiv kibernetičkih prijetnji generiranih umjetnom inteligencijom? Kibernetičke prijetnje generirane umjetnom inteligencijom često su sofisticirane i brzo se razvijaju, što ih čini teškima za detektiranje i suzbijanje. Jedan od glavnih izazova je održavanje sigurnosnih mjera ispred ovih naprednih prijetnji. Brza stopa stvaranja zlonamjernih programa i korištenje umjetne inteligencije od strane kriminalaca zahtijeva kontinuirano tehnološko i proceduralno unapređenje u odbranama kibernetičke sigurnosti.

Ključni izazovi i kontroverze:

Etičke implikacije: Razvoj AI-a koji se može potencijalno zloupotrijebiti postavlja etička pitanja o odgovornosti stvaratelja i potrebi za regulativama i kontrolnim mehanizmima kako bi se spriječila zloupotreba.

Brige o privatnosti: S integracijom AI-a s osobnim podacima, postoji povećan rizik od kršenja privatnosti, što dovodi do kontroverzi u vezi s prikupljanjem podataka, pristankom i ravnotežom između koristi tehnologije i prava na privatnost.

Regulativni okvir: Uspostavljanje sveobuhvatnog globalnog regulativnog okvira za upravljanje dvostrukom upotrebom AI-a u legitimne i zlonamjerne svrhe je kompleksno, s obzirom na različite pravne standarde diljem zemalja.

Prednosti i nedostaci:

Prednosti AI-a nove generacije: Unaprijeđena AI tehnologija može revolucionirati mnoge industrije povećavajući učinkovitost, pružajući bolju analitiku podataka i poboljšavajući personalizaciju usluga. Također može pomoći u detekciji i odgovoru na kibernetičke prijetnje efikasnije.

Nedostaci AI-a nove generacije: Povećana sofisticiranost AI tehnologija također znači naprednije alate za kibernetičke kriminalce, što dovodi do kompleksnijih i teže detektiranih kibernetičkih prijetnji. Štoviše, potencijalna zloupotreba AI-a u neetičke svrhe predstavlja značajan problem.

Relevantne tvrtke OpenAI i Google aktivno su uključene u razvoj i implementaciju napredne AI koja je relevantna za temu kibernetičkih rizika povezanih s tehnologijama nove generacije AI-a. Međutim, preporučuje se korištenje pouzdanih izvora kako bi se spriječila dezinformacija i pratili najnoviji razvoji u industriji.

Privacy policy
Contact