El software de inteligencia artificial (IA) en las redes sociales obstaculiza las investigaciones policiales sobre casos de abuso sexual infantil

Una reciente investigación realizada por The Guardian ha revelado que las empresas de redes sociales que confían en el software de inteligencia artificial (IA) para moderar sus plataformas generan informes poco viables sobre casos de abuso sexual infantil, lo que dificulta las investigaciones policiales en Estados Unidos y retrasa la identificación de posibles depredadores. Estas empresas están obligadas por ley a informar de cualquier material de abuso sexual infantil detectado en sus plataformas al National Center for Missing & Exploited Children (NCMEC), que luego remite dicha información a las agencias de aplicación de la ley correspondientes.

En 2022, el NCMEC recibió más de 32 millones de informes de presunta explotación sexual infantil, siendo Meta el mayor informante con más de 27 millones de informes. Sin embargo, el uso de informes generados por IA representa un desafío significativo para la aplicación de la ley. Debido a las protecciones de privacidad en virtud de la cuarta enmienda, los agentes del orden y el NCMEC no tienen permiso para abrir informes sin una orden de registro a menos que un humano en la empresa de redes sociales haya revisado el contenido. Este requisito legal ha resultado en retrasos de varias semanas, lo que permite que se pierdan posibles pruebas y que los delincuentes permanezcan sin ser detectados durante períodos más largos.

Expertos en seguridad infantil y abogados han expresado su preocupación por el impacto perjudicial de estos retrasos en la seguridad de la comunidad. Las investigaciones se estancan y las fuerzas del orden no pueden tomar medidas inmediatas para proteger a posibles víctimas. En algunos casos, las empresas de redes sociales incluso desactivan las cuentas de usuario después de enviar un informe, lo que podría llevar a la eliminación de pruebas cruciales de sus servidores.

Las pistas generadas por la IA a menudo no se investigan porque carecen de la información específica necesaria para obtener una causa probable para una orden de registro. Esto supone una carga adicional para las agencias del orden, que ya están abrumadas y no tienen los recursos necesarios para priorizar estas pistas.

La dependencia de la IA en la moderación de contenido es considerada por los expertos como una solución insuficiente. Si bien la IA puede ayudar a aliviar la carga de trabajo de los agentes del orden, no puede reemplazar la necesidad de intervención humana. Como señaló un fiscal de Massachusetts, la IA puede no ser capaz de identificar nuevo material de abuso infantil y solo puede analizar datos existentes. La importancia de la revisión humana no puede subestimarse cuando se trata de estos casos delicados.

La situación actual ha suscitado preocupaciones sobre la eficacia de la moderación de la IA y la necesidad de aumentar los recursos y el apoyo a las agencias del orden para abordar el creciente problema del abuso sexual infantil en línea.

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact