Tecnologia dell’intelligenza artificiale: Il hacking autonomo solleva preoccupazioni

I modelli di intelligenza artificiale (IA) sono da tempo oggetto di preoccupazione a causa del potenziale di generare output distorti e nocivi. Tuttavia, recenti ricerche dell’Università di Illinois Urbana-Champaign (UIUC) rivelano un rischio ancora maggiore. Questi modelli di IA, quando combinati con strumenti che consentono l’interazione automatizzata con altri sistemi, possono agire come agenti dannosi e hackerare autonomamente i siti web.

I ricercatori dell’UIUC hanno dimostrato questa capacità armi- zando diversi grandi modelli linguistici (LLM) e utilizzandoli per compromettere siti web vulnerabili senza alcuna guida umana. I loro esperimenti hanno dimostrato che agenti alimentati da LLM, dotati di strumenti per accedere alle API, navigare sul web in modo automatizzato e pianificare basandosi sul feedback, potevano navigare sul web in modo indipendente e penetrare nelle applicazioni web difettose senza supervisione.

Gli accademici dell’UIUC spiegano nel loro documento, “Gli agenti LLM possono hackerare autonomamente i siti web”, che questi agenti possono svolgere compiti complessi come attacchi SQL union, estrarre informazioni dal database ed eseguire hack senza conoscenza preventiva della vulnerabilità. Gli esperimenti sono stati condotti su siti web reali all’interno di un ambiente sandbox, garantendo che nessun danno fosse stato arrecato e nessuna informazione personale fosse stata compromessa.

I risultati hanno rivelato che i modelli proprietari come GPT-4 e GPT-3.5 hanno ottenuto risultati migliori rispetto ai modelli open-source in termini di tassi di successo. GPT-4 ha raggiunto un tasso di successo complessivo del 73,3% con cinque passaggi e del 42,7% con un passaggio. In confronto, GPT-3.5 ha avuto un tasso di successo del solo 6,7% con cinque passaggi e del 2,7% con un passaggio. I ricercatori hanno attribuito questa differenza a una migliore chiamata di funzione e alla capacità dei modelli proprietari di elaborare ampi contesti.

Uno degli aspetti preoccupanti di questa ricerca è l’analisi dei costi. I ricercatori hanno scoperto che utilizzare agenti LLM per hackerare siti web è molto più conveniente rispetto all’assunzione di un tester di penetrazione umano. Con un costo medio di $9,81 per sito web e un tasso di successo complessivo del 42,7%, gli agenti LLM si rivelano essere un’opzione conveniente. Sebbene attualmente il costo possa limitare l’uso diffuso, i ricercatori prevedono che i LLM saranno sempre più incorporati nei regimi di test di penetrazione in futuro.

Mentre le preoccupazioni sulla sicurezza legate ai dati di addestramento distorti e all’output del modello sono importanti, i ricercatori sottolineano che il rischio si acuisce quando i LLM vengono trasformati in agenti autonomi. La capacità di questi modelli di IA di navigare sul web in modo indipendente e svolgere compiti di hacking complessi solleva significative preoccupazioni per la sicurezza che devono essere affrontate.

Poiché la tecnologia dell’IA continua a progredire, il potenziale per agenti dannosi autonomi sottolinea la necessità di robuste misure di sicurezza e considerazioni etiche. È cruciale trovare un equilibrio tra i benefici dell’IA e i rischi potenziali associati alle sue capacità autonome.

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact