Tecnológicas se Comprometen a Combatir la IA Engañosa y Salvaguardar las Elecciones

Un grupo de 20 empresas tecnológicas, incluidas Google, Meta, OpenAI y X (anteriormente Twitter), han realizado un compromiso colectivo para combatir el contenido fraudulento generado por inteligencia artificial (IA) con el fin de proteger las elecciones globales programadas para este año. Las empresas se han unido y firmado el Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024 en la Conferencia de Seguridad de Múnich.

El acuerdo establece un marco voluntario que establece principios y acciones para prevenir, detectar, responder, evaluar e identificar la fuente de contenido engañoso de IA relacionado con elecciones. Los firmantes del acuerdo, que también incluyen a TikTok, Amazon, IBM, Anthropic y Microsoft, se han comprometido a concienciar al público sobre protegerse de la manipulación causada por dicho contenido.

Bajo el acuerdo, las 20 organizaciones se han comprometido con varias iniciativas. Buscarán detectar y prevenir la distribución de contenido engañoso de IA en elecciones, proporcionar transparencia al público sobre su enfoque para abordar dicho contenido, y desarrollar e implementar herramientas para identificar y frenar la propagación de contenido engañoso. También se harán esfuerzos para rastrear los orígenes del contenido, posiblemente a través del uso de clasificadores, métodos de procedencia, marcas de agua o adjuntando información legible por máquina al contenido generado por IA.

Los compromisos asumidos por estas empresas serán aplicables a los servicios que prestan. El Acuerdo Tecnológico abarca contenido generado por IA convincente en audio, video e imágenes que falsifican o alteran engañosamente la apariencia, voz o acciones de candidatos políticos, funcionarios electorales y otros actores clave, así como la difusión de información fraudulenta sobre procedimientos de votación.

El acuerdo reconoce la creciente importancia de la IA en el proceso democrático y destaca la necesidad de una acción colectiva para proteger las elecciones y el proceso electoral. Los firmantes reconocen que abordar el uso engañoso de la IA no es solo un desafío técnico, sino también un problema político, social y ético. Enfatizan que salvaguardar la integridad electoral y la confianza pública es una responsabilidad compartida que trasciende los intereses partidistas y las fronteras nacionales.

Al alinear sus esfuerzos, las empresas tecnológicas buscan gestionar los riesgos relacionados con el contenido engañoso de IA en sus plataformas públicas o modelos fundamentales abiertos. El acuerdo no cubre modelos o demostraciones destinadas únicamente para fines de investigación o uso empresarial. Los firmantes enfatizan que la IA tiene el potencial de ayudar a contrarrestar los actores malintencionados y permitir una detección más rápida de campañas engañosas, al tiempo que reduce los costos totales de defensa.

El Acuerdo Tecnológico representa un paso crucial en el avance de la integridad electoral y la resiliencia societal, apoyando la creación de prácticas tecnológicas confiables. Dado que la desinformación y la información falsa representan riesgos significativos para la cohesión societal, la comunidad global debe mantenerse proactiva en la protección de la legitimidad de los nuevos gobiernos entrantes.

The source of the article is from the blog elektrischnederland.nl

Privacy policy
Contact