Ameaça Emergente: Adversários Exploram IA Generativa para Operações Cibernéticas

A detecção recente da Microsoft e a interrupção das operações cibernéticas realizadas por adversários dos Estados Unidos usando inteligência artificial generativa (IA) jogaram luz sobre uma ameaça emergente no cenário de segurança cibernética. Embora as técnicas empregadas por esses grupos adversários não fossem novas, elas demonstraram o potencial de grandes modelos de linguagem para melhorar significativamente suas capacidades ofensivas.

Colaborando com seu parceiro OpenAI, a Microsoft descobriu casos em que Irã, Coreia do Norte, China e Rússia tentaram explorar a IA generativa para operações cibernéticas ofensivas. Notavelmente, a Microsoft enfatizou a importância de expor esses ataques publicamente, mesmo que estivessem em estágios iniciais ou movimentos incrementais. O objetivo era aumentar a conscientização sobre o uso crescente de grandes modelos de linguagem por rivais geopolíticos para violar redes e conduzir operações de influência.

Grandes modelos de linguagem, como o ChatGPT da OpenAI, alteraram drasticamente o jogo de gato e rato na segurança cibernética. Enquanto a aprendizagem de máquina era inicialmente usada por empresas de cibersegurança para fins de defesa, criminosos e hackers ofensivos também a adotaram. O investimento substancial da Microsoft na OpenAI destaca a importância desse desenvolvimento.

Ao interromper as atividades cibernéticas de vários grupos adversários, a Microsoft descobriu a exploração da IA generativa para diferentes fins. Por exemplo, o grupo Kimsuky da Coreia do Norte usou os modelos para pesquisar tanques de pensamento estrangeiro e criar conteúdo para campanhas de spear-phishing. A Guarda Revolucionária do Irã utilizou grandes modelos de linguagem para aprimorar técnicas de engenharia social, solucionar erros de software e estudar maneiras de escapar da detecção em redes comprometidas.

A unidade militar russa GRU Fancy Bear concentrou-se em pesquisar tecnologias de satélite e radar relevantes para o conflito na Ucrânia. Enquanto isso, os grupos de ciberespionagem chineses Panda Aquático e Maverick Panda utilizaram os modelos para explorar como os grandes modelos de linguagem poderiam aprimorar suas operações técnicas e reunir informações sobre diversos tópicos sensíveis.

As descobertas da Microsoft se alinharam com a avaliação da OpenAI de que seu modelo atual do ChatGPT tem capacidades limitadas para tarefas maliciosas de cibersegurança além do que é alcançável com ferramentas não alimentadas por IA. No entanto, os riscos potenciais associados ao desenvolvimento e implantação futura de IA e grandes modelos de linguagem em atividades cibernéticas ofensivas não podem ser subestimados.

Como os especialistas alertaram, tanto a China quanto a inteligência artificial foram consideradas ameaças e desafios definidores da era. O desenvolvimento responsável da IA com considerações de segurança é essencial, pois o aumento da utilização de grandes modelos de linguagem por Estados-nação inevitavelmente os transformará em armas potentes.

Críticos apontaram o lançamento apressado do ChatGPT e modelos semelhantes, argumentando que a segurança não foi adequadamente priorizada durante o desenvolvimento. Alguns profissionais de cibersegurança também criticaram a abordagem da Microsoft, sugerindo que eles devem se concentrar em criar modelos de base mais seguros em vez de vender ferramentas defensivas para lidar com vulnerabilidades que contribuíram para criar.

A detecção e interrupção de operações cibernéticas adversárias destacam a necessidade urgente de aumentar a vigilância e as medidas de segurança diante das tecnologias de IA em constante evolução. À medida que a IA e os grandes modelos de linguagem continuam avançando, tanto os atores defensivos quanto os ofensivos precisarão adaptar suas estratégias para mitigar os riscos potenciais apresentados por essa ameaça emergente.

The source of the article is from the blog bitperfect.pe

Privacy policy
Contact