Voz de Líder Político Português Clonada por IA para Anúncios Enganosos

Un incidente sin precedentes en Portugal ha sido revelado por expertos de MediaLab, parte del departamento de ciencias de la comunicación de ISCTE-IUL. Descubrieron que André Ventura, una figura política destacada, tuvo su voz replicada de manera convincente por inteligencia artificial (IA) para promocionar un esquema financiero engañoso en un anuncio.

El comercial, visto por casi 17,000 ciudadanos portugueses en Facebook e Instagram, mostraba a Ventura instando a invertir en una plataforma dudosa para hacer dinero. Si bien el anuncio parecía tener motivos comerciales, los expertos Gustavo Cardoso y José Moreno de MediaLab advirtieron sobre sus posibles ramificaciones políticas, especialmente durante las elecciones. El anuncio implicaba fraudulentamente el respaldo de Ventura a esquemas dudosos de construcción de riqueza en línea, lo que podría dar forma inadvertidamente a percepciones políticas.

Analistas en MediaLab también descubrieron otros anuncios políticos engañosos utilizando imágenes relacionadas con el partido Chega, incluidos tanto Ventura como otro candidato, António Tanger Corrêa, e incluso tergiversando declaraciones de António Costa. Estas narrativas fabricadas habrían llegado a más de 66,000 personas en Portugal, sin embargo, las identidades de los anunciantes permanecen como un misterio.

El uso de figuras públicas en estos engaños generalmente sirve a un doble propósito: beneficiarse de los engañados y desacreditar a las personalidades involucradas. Anuncios que dirigen a sitios web clonados falsos de Correio da Manhã y Galp presentaron historias fabricadas que involucraban a estas personalidades políticas para atraer a los lectores.

La investigación de MediaLab reveló que la creación de contenido es automatizada, con algoritmos identificando figuras populares de las redes sociales para generar narrativas de texto engañosas. José Moreno comentó sobre la ironía de que Ventura se convirtiera en víctima de su importante presencia en redes sociales. Además, los esfuerzos por rastrear a los financiadores de los anuncios o a los propietarios de los sitios web, conducen a callejones sin salida, con inscripciones de registro anónimas que llevan a servidores en California y registros en Reikiavik, Islandia.

El uso de IA para clonar voces y crear anuncios engañosos plantea desafíos éticos, legales y políticos significativos. El incidente que involucra al líder político portugués André Ventura destaca preguntas y preocupaciones clave en este ámbito:

Key Questions and Answers:
– ¿Cómo puede la sociedad protegerse contra el mal uso de la IA en la creación de contenido engañoso? Se deben desarrollar regulaciones y tecnologías avanzadas de detección para identificar y combatir los medios sintéticos.
– ¿Qué repercusiones legales existen para los creadores de tales anuncios fraudulentos? Actualmente, las leyes pueden variar según el país, pero hay una creciente necesidad de marcos legales internacionales para enjuiciar tales casos de suplantación digital y fraude.
– ¿Qué tan significativa es la amenaza de la tecnología deepfake para la integridad de los procesos políticos? La amenaza es sustancial, ya que puede distorsionar las percepciones de los votantes y socavar la confianza en las instituciones democráticas.

Key Challenges or Controversies:
– Detección y Regulación: Desarrollar herramientas confiables para detectar deepfakes y establecer regulaciones que puedan mantenerse al día con las tecnologías que avanzan rápidamente es un desafío.
– Libertad de Expresión vs. Desinformación: Equilibrar la protección de la libertad de expresión con la necesidad de prevenir la propagación de la desinformación es un tema controvertido.
– Manipulación Política: Existen preocupaciones de que la tecnología deepfake pueda ser utilizada para manipular resultados electorales o crear inestabilidad política.

Ventajas y Desventajas de la IA en los Medios:

Ventajas:
– La IA puede emplearse para una creación innovadora de contenido, reduciendo costos y tiempo en la producción de medios.
– La tecnología de IA puede mejorar la personalización y accesibilidad del contenido para usuarios con discapacidades.

Desventajas:
– La tecnología puede ser mal utilizada para crear contenido engañoso y fraudulento.
– El contenido falso generado por IA puede erosionar la confianza pública en los medios e instituciones.
– Los sistemas legales pueden tener dificultades para mantenerse al día con los desafíos que plantean los medios sintéticos.

Para obtener más información sobre la IA y sus implicaciones éticas, los enlaces relacionados suelen incluir organizaciones de renombre como la Partnership on AI (partnershiponai.org) o instituciones académicas como el Instituto de IA Centrada en el Humano de Stanford (hai.stanford.edu). Estos enlaces proporcionan recursos sobre el uso responsable de la inteligencia artificial.

Las revelaciones de MediaLab de ISCTE-IUL subrayan la necesidad urgente tanto de soluciones tecnológicas como legislativas para protegerse contra el mal uso de la tecnología deepfake y para mantener la integridad de la información en línea.

Privacy policy
Contact