Sistemas de IA Preditivos e Generativos Enfrentam Riscos de Segurança Significativos, Alerta Nova Pesquisa

Nova pesquisa no campo da inteligência artificial (IA) adverte que sistemas de IA preditivos e generativos são vulneráveis a uma série de ataques, contradizendo as afirmações de que essas tecnologias são seguras. Apostol Vassilev, um cientista da computação do Instituto Nacional de Padrões e Tecnologia dos Estados Unidos (NIST), enfatiza que, apesar do progresso na IA e na aprendizagem de máquina, ainda existem desafios significativos de segurança. Vassilev co-escreveu um artigo intitulado “Aprendizado de Máquina Adversarial: Uma Taxonomia e Terminologia de Ataques e Mitigações” junto com pesquisadores da Northeastern University e da loja de segurança Robust Intelligence. O artigo explora os riscos de segurança associados aos sistemas de IA, com foco em ataques de evasão, envenenamento, privacidade e abuso.

Os ataques de evasão têm como objetivo gerar exemplos adversários que possam manipular as classificações dos algoritmos de IA com mínima perturbação. Esses ataques remontam a pesquisas realizadas em 1988 e podem resultar em classificações erradas perigosas, como a identificação incorreta de sinais de parada em veículos autônomos. Os ataques de envenenamento, por outro lado, envolvem a inserção de dados indesejados nos modelos de aprendizado de máquina durante o treinamento, o que leva a respostas indesejáveis ​​quando inputs específicos são recebidos. Os ataques de privacidade envolvem a reconstrução de dados de treinamento que deveriam ser inacessíveis, a extração de dados memorizados e a inferência de informações protegidas.

Por fim, os ataques de abuso utilizam sistemas de IA generativos para fins maliciosos, como promover discursos de ódio, gerar mídia que incita a violência ou facilitar ataques cibernéticos. Os pesquisadores por trás do artigo buscam fornecer uma compreensão dessas categorias de ataque e variações, além de propor métodos de mitigação para aprimorar as defesas dos sistemas de IA. Eles enfatizam que atualmente há um equilíbrio entre segurança e justiça e precisão na otimização dos sistemas de IA.

Essa pesquisa serve como um lembrete crítico de que as vulnerabilidades de segurança dos sistemas de IA não podem ser ignoradas. À medida que as tecnologias de IA continuam avançando, abordar essas preocupações de segurança torna-se crucial para evitar potenciais consequências catastróficas.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact