Minaccia emergente: gli avversari sfruttano l’IA generativa per le operazioni informatiche

La recente scoperta e interruzione da parte di Microsoft di operazioni informatiche condotte da avversari degli Stati Uniti utilizzando l’intelligenza artificiale (IA) generativa ha messo in luce una minaccia emergente nel panorama della sicurezza informatica. Mentre le tecniche utilizzate da questi gruppi avversari non erano nuove, hanno dimostrato il potenziale dei grandi modelli di linguaggio per potenziare in modo significativo le loro capacità offensive.

In collaborazione con il partner OpenAI, Microsoft ha individuato casi in cui Iran, Corea del Nord, Cina e Russia hanno cercato di sfruttare l’IA generativa per operazioni informatiche offensive. In particolare, Microsoft ha sottolineato l’importanza di rendere pubblici questi attacchi, anche se erano ancora nelle prime fasi o mosse incrementali. L’obiettivo era sensibilizzare sull’uso sempre più diffuso dei grandi modelli di linguaggio da parte dei rivali geopolitici per violare le reti e condurre operazioni di influenza.

I grandi modelli di linguaggio, come ChatGPT di OpenAI, hanno drasticamente cambiato il gioco del gatto e del topo nella sicurezza informatica. Mentre l’apprendimento automatico inizialmente veniva utilizzato dalle aziende di sicurezza informatica per scopi difensivi, ora anche criminali e hacker offensivi ne hanno adottato l’uso. Gli ingenti investimenti di Microsoft in OpenAI sottolineano l’importanza di questo sviluppo.

Interrompendo le attività informatiche di vari gruppi avversari, Microsoft ha scoperto il loro sfruttamento dell’IA generativa per diversi scopi. Ad esempio, il gruppo Kimsuky della Corea del Nord ha utilizzato i modelli per studiare tank di pensiero stranieri e creare contenuti per campagne di spear-phishing. La Guardia Rivoluzionaria dell’Iran ha utilizzato i grandi modelli di linguaggio per potenziare le tecniche di ingegneria sociale, risolvere errori software e studiare modi per eludere la rilevazione nelle reti compromesse.

L’unità militare russa GRU Fancy Bear si è concentrata sulla ricerca di tecnologie satellitari e radar rilevanti per il conflitto in Ucraina. Nel frattempo, i gruppi di cyber spionaggio cinesi Aquatic Panda e Maverick Panda hanno interagito con i modelli per esplorare come i grandi modelli di linguaggio potessero potenziare le loro operazioni tecniche e raccogliere informazioni su diversi argomenti sensibili.

Le scoperte di Microsoft sono state allineate con la valutazione di OpenAI secondo cui il modello ChatGPT attuale ha capacità limitate per compiti dannosi di sicurezza informatica al di là di quanto possibile con strumenti non alimentati da AI. Tuttavia, i potenziali rischi legati allo sviluppo e alla distribuzione futura di AI e grandi modelli di linguaggio nelle attività informatiche offensive non possono essere sottovalutati.

Come hanno avvertito gli esperti, sia la Cina che l’intelligenza artificiale sono state considerate minacce e sfide epocali. Lo sviluppo responsabile di IA con considerazioni di sicurezza è essenziale, poiché l’utilizzo sempre maggiore dei grandi modelli di linguaggio da parte degli Stati nazione porterà inevitabilmente alla loro emergenza come armi potenti.

I critici hanno evidenziato la rapida diffusione di ChatGPT e modelli simili, sostenendo che la sicurezza non è stata adeguatamente prioritizzata durante lo sviluppo. Alcuni professionisti della sicurezza informatica hanno anche criticato l’approccio di Microsoft, suggerendo che dovrebbero concentrarsi sulla creazione di modelli di base più sicuri anziché vendere strumenti difensivi per affrontare le vulnerabilità a cui hanno contribuito.

La scoperta e l’interruzione delle operazioni informatiche avversarie evidenziano la necessità pressante di una maggiore vigilanza e misure di sicurezza di fronte alle evoluzioni delle tecnologie di intelligenza artificiale. Con l’avanzare dell’IA e dei grandi modelli di linguaggio, sia gli attori difensivi che quelli offensivi dovranno adattare le proprie strategie per mitigare i potenziali rischi posti da questa minaccia emergente.

Domande frequenti:

D: Cosa ha scoperto di recente Microsoft nel panorama della sicurezza informatica?
R: Microsoft ha individuato e interrotto operazioni informatiche condotte da avversari degli Stati Uniti utilizzando l’intelligenza artificiale generativa (IA).

D: Quali paesi hanno cercato di sfruttare l’IA generativa per operazioni informatiche offensive?
R: Iran, Corea del Nord, Cina e Russia sono stati identificati come i paesi coinvolti.

D: Qual è l’importanza dei grandi modelli di linguaggio nella sicurezza informatica?
R: I grandi modelli di linguaggio, come ChatGPT di OpenAI, hanno trasformato il campo della sicurezza informatica, fornendo sia a difensori che a attaccanti nuovi strumenti e capacità.

D: Come hanno utilizzato questi gruppi avversari l’IA generativa?
R: L’hanno utilizzata per vari scopi, tra cui la ricerca di obiettivi, la creazione di contenuti per campagne di spear-phishing, il potenziamento delle tecniche di ingegneria sociale, la risoluzione di errori software e l’elusione della rilevazione nelle reti compromesse.

D: Con cosa sono stati allineati i risultati di Microsoft?
R: I risultati di Microsoft si sono allineati alla valutazione di OpenAI secondo cui il modello ChatGPT aveva capacità limitate per compiti dannosi di sicurezza informatica al di là di quanto possibile con strumenti non alimentati da AI.

D: Quali sono i potenziali rischi associati allo sviluppo e alla distribuzione di AI nelle attività informatiche offensive?
R: I rischi sono significativi poiché l’IA e i grandi modelli di linguaggio hanno il potenziale di diventare armi potenti nelle mani degli Stati nazione.

D: Quali critiche sono state rivolte alla rapida diffusione di modelli come ChatGPT?
R: I critici sostengono che la sicurezza non è stata adeguatamente prioritizzata durante lo sviluppo e i professionisti della sicurezza informatica suggeriscono di concentrarsi sulla creazione di modelli di base più sicuri anziché vendere strumenti difensivi.

Definizioni:

– Intelligenza artificiale generativa (IA): tecnologia di intelligenza artificiale in grado di generare nuovi contenuti, come testi o immagini, basandosi su modelli ed esempi appresi.
– Grandi modelli di linguaggio: modelli di intelligenza artificiale addestrati su grandi quantità di dati testuali e capaci di generare linguaggio coerente e rilevante in contesti specifici.
– Operazioni informatiche offensive: Attività informatiche intenzionate a danneggiare, sfruttare o ottenere accesso non autorizzato a reti o sistemi.
– ChatGPT: Un grande modello di linguaggio sviluppato da OpenAI per generare risposte testuali uman-like in contesti di conversazione.
– Campagne di spear-phishing: Attacchi di phishing mirati a individui o organizzazioni specifiche utilizzando messaggi personalizzati e convincenti.

Link correlati suggeriti:

– Blog sulla sicurezza informatica di Microsoft
– Sito web di OpenAI
– Cybersecurity and Infrastructure Security Agency (CISA)

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact