Chatbot de IA implantado por Entidade Russa para Influenciar a Opinião Pública

Uma operação russa utilizou inteligência artificial para moldar a narrativa contra as políticas liberais do governo do Presidente francês Emmanuel Macron. O comando dado a um chatbot para criar conteúdo com uma posição conservadora foi inadvertidamente deixado visível em artigos publicados pelo gbgeopolitics.com, um site com foco geopolítico que apresentava seções como “Notícias dos EUA” e “Guerra em Gaza”. Apesar de parecer genuíno, o site era uma engrenagem em uma maquinaria maior com o objetivo de influenciar o sentimento público ocidental.

Investigações da empresa de segurança de TI Recorded Future descobriram que o gbgeopolitics.com, estabelecido por volta de fevereiro ou março, hospedou inúmeros artigos gerados por IA que promoviam narrativas políticas específicas. Essas narrativas frequentemente eram voltadas para criticar as políticas do Partido Democrata nos EUA, promover perspectivas pró-Republicanas e pró-Russas, e adotar um tom crítico em relação à aliança da OTAN e políticos americanos.

A rede de sites ligados a essa campanha de influência incluía pelo menos uma dúzia de revistas online com similaridades técnicas e de conteúdo. Publicações como “The Boston Times” e “The British Chronicle” indicavam seus públicos-alvo nos EUA, Reino Unido e França.

Um ex-policial americano, John Mark Dougan, que fugiu para a Rússia em 2016 após revelar informações confidenciais sobre pessoal policial da Flórida e que utiliza o pseudônimo “BadVolf”, pode estar conectado a esses esforços. Supostas conexões entre Dougan, o site DC Weekly e outros sites na rede Copycop foram descobertas, todas sugerindo que a rede poderia ter afiliações governamentais russas ou de um grupo de desinformação maior.

A campanha, conhecida internamente como “Doppelgänger”, imitava várias plataformas de mídia europeias estabelecidas para disseminar conteúdo enganoso. No entanto, a rede Copycop parecia menos refinada e incidentemente expôs seu uso de IA e motivações políticas devido a falta de supervisão, possivelmente agravada por processos automatizados.

Uma das questões mais importantes relacionadas ao uso de chatbots de IA em campanhas de influência como a implantada por uma entidade russa é:

Como sociedades e governos podem detectar e se proteger contra campanhas de desinformação impulsionadas por IA?

Resposta: Detectar e se proteger contra campanhas de desinformação impulsionadas por IA requer uma combinação de soluções tecnológicas, programas de alfabetização midiática e medidas regulatórias. A IA e o aprendizado de máquina podem ser usados para identificar padrões e anomalias que sugerem atividade de bots ou geração de texto sintético. Esforços colaborativos entre plataformas de mídia social, empresas de cibersegurança e agências governamentais são cruciais para compartilhar inteligência e mitigar ameaças. Além disso, educar o público sobre como avaliar criticamente as fontes de informação é essencial para construir resiliência da sociedade contra a desinformação.

Desafios ou controvérsias-chave associados a chatbots de IA influenciando a opinião pública incluem:

1. Determinar a origem e a atribuição de campanhas de desinformação, o que muitas vezes é complicado pelo uso de proxies, VPNs e outras ferramentas de anonimato.
2. Equilibrar a necessidade de liberdade de expressão e o imperativo de prevenir a disseminação de informações falsas ou enganosas, especialmente em sociedades democráticas.
3. Garantir que as medidas de contra-ataque não infrinjam a privacidade pessoal ou resultem em censura de conteúdo legítimo.
4. Acompanhar a sofisticação em evolução do conteúdo gerado por IA, que está continuamente melhorando e se tornando mais difícil de distinguir do conteúdo gerado por humanos.

Vantagens de implantar chatbots de IA em campanhas de influência podem incluir:

– Escalabilidade: A IA pode produzir um grande volume de conteúdo de forma rápida e eficiente.
– Anonimato: Bots podem operar sem um link direto para seus operadores, dificultando rastrear a origem da desinformação.
– Custo-efetividade: Uma vez que um sistema de IA é desenvolvido, ele pode operar a baixo custo em comparação com agentes humanos.

Desvantagens dessa abordagem incluem:

– Questões éticas: Usar IA para espalhar desinformação é eticamente questionável e pode minar a confiança na tecnologia de IA como um todo.
– Retaliação potencial: Se descobertas, tais operações podem levar a incidentes diplomáticos e prejudicar a reputação internacional de um país.
– Inexatidão: O conteúdo gerado por IA pode conter erros inadvertidamente ou ser facilmente identificado como sintético, reduzindo sua eficácia.

Para mais informações sobre IA e cibersegurança, visite o site da Recorded Future.

Para insights adicionais sobre desenvolvimentos geopolíticos globais, você pode achar o site da Foreign Affairs informativo.

Privacy policy
Contact