Rápido desenvolvimento da inteligência artificial enfrenta múltiplas ameaças, alerta o NIST

Um recente artigo do Instituto Nacional de Padrões e Tecnologia (NIST) destaca as várias ameaças enfrentadas pelo rápido desenvolvimento da inteligência artificial (IA). De acordo com o relatório, os sistemas de IA são vulneráveis a ataques como desvio, envenenamento de dados e violações de privacidade.

Uma preocupação importante levantada no relatório é a incapacidade de proteger completamente os sistemas de IA contra atores hostis que podem atacá-los e confundi-los. Isso representa um desafio significativo, pois é crucial promover o desenvolvimento e a implementação responsável de ferramentas de IA em todos os setores.

O relatório também enfoca os riscos potenciais associados ao treinamento de modelos de IA usando conjuntos de dados de linguagem extensa. Devido ao grande volume de dados envolvidos, é difícil auditar cada parte dos dados fornecidos aos sistemas de IA. Isso cria vulnerabilidades em termos de precisão, conteúdo e resposta às consultas. Alguns sistemas de IA treinados com dados contaminados têm apresentado comportamento racista e depreciativo em suas respostas.

Outra área de preocupação destacada no artigo são os ataques de evasão. Esses ataques pós-implantação visam alterar a maneira como os sistemas de IA reconhecem as entradas ou respondem a elas. Por exemplo, adicionando marcas adicionais a uma placa de pare, os atacantes podem fazer com que carros autônomos falhem em reconhecer a placa, o que pode levar a acidentes.

O relatório do NIST também chama a atenção para a possibilidade de engenharia reversa de sistemas de IA para identificar suas fontes e injetar exemplos ou informações maliciosas. Isso pode provocar respostas inadequadas da IA, comprometendo seu uso pretendido.

O que torna esses ataques ainda mais alarmantes é que eles podem ser executados com conhecimento mínimo dos sistemas de IA. Essa natureza de caixa-preta dos ataques dificulta a defesa efetiva contra eles.

O cientista da computação do NIST, Apostol Vassilev, que contribuiu para a publicação, ressaltou a necessidade de melhores defesas. Embora existam algumas estratégias de mitigação disponíveis, atualmente elas carecem de garantias robustas para mitigar completamente os riscos representados por esses ataques.

O relatório serve como um alerta para a comunidade de IA, para priorizar o desenvolvimento de defesas mais fortes e garantir o uso responsável das tecnologias de IA para proteger contra as ameaças em constante evolução.

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact