Revolučné umelá inteligencia preukazuje schopnosť zneužitia bezpečnosti

Univerzitní špecialisti pre kybernetickú bezpečnosť na Univerzite Illinois v Urbana-Champaign zistili, že GPT-4 od spoločnosti OpenAI dokáže využiť súčasné zraniteľnosti určitých systémov, pokiaľ má podrobné informácie o chybách a chybných prevádzkach. Počas svojich vyšetrovacích úsilia, výskumníci selektívne otestovali AI pri vyhľadaní 15 kritických bezpečnostných chýb, pričom GPT-4 dokázal využiť 13 z nich.

Impresívne prekonávajúc iné srovnateľné jazykové modely, GPT-4 preukázal pokročilé technické schopnosti obvykle nevidené u svojich konkurentov. Podľa člena výskumného tímu Daniela Kanga by mohli veľké jazykové modely významne zefektívniť procesy využívania zraniteľnosti pre hackerov. Systémy AI sa zdajú byť efektívnejšie než nástroje, ktoré sú momentálne k dispozícii pre začínajúcich kybernetických zločincov.

Štúdia taktiež poukazuje na nákladovú efektívnosť nasadenia veľkých jazykových modelov ako GPT-4 v hackingových operáciách. Experti veria, že použitie AI by mohlo byť výrazne lacnejšie než nájom profesionálnych penetračných testerov.

Americkí výskumníci upozornili, že jediné neúspechy GPT-4 v experimente nastali, keď narazil na komplikácie pri navigácii webovými aplikáciami a keď sa AI stretol s problémom popísaným v čínštine, ktorý nevedel úplne pochopiť.

Kang varoval, že aj hypotetické obmedzenia prístupu k veľkým jazykovým modelom v súvislosti s informáciami o kybernetickej bezpečnosti by nezaručovali neprekonateľnú obranu pred AI-založenými kybernetickými útokmi. Vývojári technológií AI sú vyzývaní k tomu, aby ako preventívnu opatrenie zabezpečili, že ich produkty majú robustnú bezpečnosť a pravidelne aktualizovali svoj softvér. Tieto zistenia odrážajú potrebu prehodnotiť implementácie AI v kontexte kybernetickej bezpečnosti.

Privacy policy
Contact