El Desafío de Combatir la Pornografía Infantil Generada por Inteligencia Artificial

Las agencias de aplicación de la ley se enfrentan a desafíos significativos cuando se trata de procesar casos de imágenes abusivas y explícitamente sexuales de menores generadas por inteligencia artificial (IA). Durante una audiencia del subcomité de Supervisión de la Cámara de Representantes, la Representante Anna Paulina Luna (R-Fla.) arrojó luz sobre este problema, señalando que las leyes actuales contra el material de abuso sexual infantil (CSAM, por sus siglas en inglés) requieren el uso de una fotografía real de un menor para proceder con el enjuiciamiento.

Sin embargo, con la emergencia de la tecnología de IA generativa, las imágenes ordinarias de menores pueden transformarse en contenido ficticio pero explícito, lo que dificulta que las fuerzas del orden tomen acción legal. «Los malos actores están tomando fotografías de menores, utilizando IA para modificarlas en posiciones comprometedoras sexualmente, y luego evitando el enjuiciamiento basado en tecnicismos de la ley,» explicó Carl Szabo, Vicepresidente de la organización sin fines de lucro NetChoice.

Para hacer frente a estos desafíos, los 50 fiscales generales de estado redactaron una carta bipartidista instando al Congreso a estudiar la utilización de la IA en la explotación de niños y proponer soluciones efectivas para disuadir y abordar dicha explotación. La carta específicamente pedía que el CSAM generado por AI esté cubierto explícitamente por la legislación, permitiendo a los fiscales tomar la acción adecuada.

La Representante Luna resaltó las dificultades del FBI para enjuiciar a individuos involucrados en estos crímenes. Dado que las imágenes generadas por IA no implican daño real a los niños, los marcos legales existentes son insuficientes para responsabilizar a los perpetradores. El FBI ha mostrado interés en abordar este tema, pero se enfrentan a obstáculos significativos en sus esfuerzos.

Mientras que el CSAM generado por IA representa actualmente una pequeña parte del contenido abusivo que circula en línea, se prevé que crezca debido a la facilidad de uso, versatilidad y naturaleza altamente realista de los programas de IA generativa. John Shehan, Vicepresidente de la División de Niños Explotados del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), enfatizó la importancia de abordar este problema de manera proactiva. Destacó una investigación llevada a cabo por el Observatorio de Internet de Stanford, que identificó la IA generativa como un factor contribuyente en el aumento de la creación de CSAM.

El NCMEC opera el CyberTipline, el sistema centralizado de denuncias de explotación infantil en línea de la nación. A pesar del creciente número de aplicaciones y servicios que utilizan IA generativa, solo un puñado de empresas han presentado informes a la línea directa. Shehan enfatizó la necesidad de que las empresas tecnológicas prioricen la seguridad al desarrollar estas herramientas y se involucren con organizaciones como el NCMEC para evitar la creación de contenido sexualmente explotativo y desnudo de niños.

Lamentablemente, las agencias de aplicación de la ley enfrentan desafíos significativos al investigar y enjuiciar casos de CSAM generado por IA. El volumen de casos y la falta de recursos obstaculizan su capacidad para apuntar a los infractores más graves. El Representante Nick Langworthy (R-N.Y.) resaltó las alarmantes estadísticas presentadas por John Pizzuro, CEO de la organización sin fines de lucro Raven, durante una audiencia del Comité Judicial del Senado. En un período de tres meses, más de 99,000 direcciones IP en los Estados Unidos distribuyeron CSAM conocido, mientras que solo se investigaron 782 casos.

Para combatir efectivamente este problema, es imperativo que el Congreso tome medidas. Al cubrir explícitamente el CSAM generado por IA en la legislación, empoderaría a las fuerzas del orden y les proporcionaría las herramientas necesarias para enjuiciar a los infractores. Los esfuerzos colaborativos de las agencias gubernamentales, empresas tecnológicas y organizaciones sin fines de lucro son esenciales para proteger a los niños de estos crímenes atroces.

Preguntas Frecuentes

The source of the article is from the blog meltyfan.es

Privacy policy
Contact