En un movimiento innovador, varias empresas tecnológicas prominentes, como Amazon, Google y Microsoft, han iniciado un esfuerzo colaborativo para abordar el problema de la inteligencia artificial (IA) engañosa en las elecciones. Las empresas se han comprometido colectivamente a abordar la difusión de contenido engañoso para los votantes mediante la implementación de tecnología avanzada y la adopción de medidas proactivas.
El Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024 fue anunciado públicamente durante la Conferencia de Seguridad de Múnich. Con un estimado de cuatro mil millones de personas que se espera participen en las elecciones este año en países como Estados Unidos, Reino Unido e India, la necesidad de actuar nunca ha sido tan urgente. El acuerdo detalla varios compromisos, incluida la elaboración de tecnologías impulsadas por la IA para mitigar los riesgos asociados con el contenido engañoso en las elecciones, garantizar la transparencia haciendo públicas sus acciones, y educar al público sobre cómo identificar contenido manipulado.
El acuerdo cuenta con una impresionante lista de firmantes, que incluye a las plataformas de redes sociales populares como X (anteriormente Twitter), Snap, LinkedIn y Meta (propietaria de Facebook, Instagram y WhatsApp). Aunque este esfuerzo conjunto ha recibido elogios, algunos expertos creen que podría no ser suficiente para evitar por completo la propagación de contenido dañino. El doctor Deepak Padmanabhan, un científico informático de la Universidad Queen’s de Belfast, sugiere que se necesita un enfoque más proactivo, afirmado que esperar a eliminar el contenido publicado podría permitir que contenido generado por IA más realista y dañino persista.
Además, la definición de contenido dañino del acuerdo ha sido criticada por carecer de matices. El Dr. Padmanabhan plantea la cuestión de si contenido generado por IA, como discursos hechos por políticos encarcelados, también debería ser retirado. Los firmantes tienen como objetivo centrarse en el contenido que engaña o altera la apariencia, voz o acciones de figuras clave en las elecciones. También hacen hincapié en abordar información falsa presentada a través de audio, imágenes o videos sobre la logística de votación.
La importancia de esta iniciativa es subrayada por la Fiscal General Adjunta de los Estados Unidos, Lisa Monaco, quien alerta sobre el potencial de la IA para exacerbar la desinformación durante las elecciones e incitar a la violencia. Empresas como Google y Meta ya han establecido políticas relacionadas con imágenes y videos generados por IA en publicidad política, exigiendo a los anunciantes que revelen el uso de deepfakes o contenido manipulado. Al unir fuerzas y aprovechar sus capacidades tecnológicas, estos gigantes tecnológicos están dando pasos cruciales hacia la salvaguardia de la integridad de los procesos democráticos en todo el mundo.