Sistemas Eleitorais Globais se Preparam para Enfrentar o Desafio da Desinformação IA

A democracia enfrenta uma ameaça sutil à medida que técnicas de inteligência artificial, especialmente aquelas capazes de gerar textos, imagens e vídeos convincentes semelhantes aos humanos, estão sendo cada vez mais empregadas em eleições e discursos públicos. À medida que o mundo se prepara para um ano em que mais de 40% da população global irá votar, preocupações estão surgindo entre os funcionários do governo sobre a aparentemente inconspícua ameaça da IA.

Ao contrário do não evento impressionante do caos induzido pela IA nas eleições recentes na Indonésia e Paquistão, há um reconhecimento crescente do potencial da tecnologia para interferências mais sutis. Os medos ainda não se materializaram em impactos detectáveis, mas exemplos como ferramentas de IA generativa que produzem em massa mensagens ligeiramente variadas tornam mais difícil identificá-las, assemelhando-se a versões de alta tecnologia de campanhas persuasivas que têm assolado plataformas de mídias sociais no passado.

A sutileza da desinformação gerada pela IA reside em sua variedade, como observado por Josh Lawson, ex-gerente de riscos da Meta Platforms Inc., agora consultor em estratégias de mídias sociais. Enquanto grande parte do discurso sobre a IA tem se concentrado em deepfakes e visuais, Lawson destaca que as campanhas de desinformação baseadas em texto podem ser muito mais escaláveis e difíceis de rastrear.

O WhatsApp da Meta potencialmente facilita tais operações com recursos como “Canais” que podem transmitir para vastas audiências. Isso permite até mesmo que atores menos sofisticados disseminem desinformação, como informar falsamente comunidades sobre as condições dos locais de votação para suprimir a participação dos eleitores.

O impacto mais amplo na sociedade envolve também o público em geral, com mais da metade dos americanos e um quarto dos cidadãos britânicos já experimentando ferramentas de IA. Essa democratização da tecnologia significa que indivíduos cotidianos poderiam se tornar involuntariamente vetores de desinformação.

Na tentativa de combater esses desafios, a Meta começou a rotular o conteúdo gerado por IA no Facebook e Instagram, embora essa estratégia corra o risco de criar uma sensação falsa de segurança onde o conteúdo não rotulado é presumido genuíno.

Além disso, plataformas de mensagens como o WhatsApp podem se tornar campos de batalha-chave para a desinformação impulsionada pela IA, como visto na eleição brasileira de 2018. Políticas de conteúdo mais claras poderiam capacitar empresas como a Meta a combater proativamente o uso indevido da IA na interferência eleitoral, assim como as políticas específicas em vigor para o Facebook e Instagram abordando a manipulação de eleitores.

À medida que a linha entre ruído sintético e sinal significativo se confunde, as empresas de tecnologia e os funcionários devem permanecer vigilantes. A ausência de interrupções óbvias de IA nas eleições não sinaliza segurança; pelo contrário, enfatiza a urgência de preparação diante de um adversário discreto porém formidável.

Privacy policy
Contact