Cambios en las Políticas de Meta sobre Contenido Generado por IA y Medios Manipulados

Meta, el gigante de las redes sociales, ha anunciado cambios en sus directrices con respecto al contenido generado por inteligencia artificial y los medios manipulados. Esta decisión surge como respuesta a las críticas de la Junta de Supervisión de la empresa y tiene como objetivo abordar preocupaciones relacionadas con información engañosa y la manipulación.

A partir del próximo mes, Meta introducirá una insignia de «Hecho con IA» para deepfakes, una forma de medios manipulados creados utilizando inteligencia artificial. Además, cuando se haya manipulado el contenido de otras formas que puedan engañar al público sobre cuestiones importantes, Meta proporcionará información contextual adicional a los usuarios.

Este cambio de política tiene importantes implicaciones, especialmente en un año lleno de elecciones en todo el mundo. Significa que Meta puede etiquetar más contenido que tenga el potencial de inducir a error, asegurando transparencia para los usuarios. Sin embargo, la etiquetación de deepfakes se limitará a contenido que exhiba «indicadores de imágenes de IA estándar de la industria» o que haya sido revelado por el usuario como generado por IA.

Si bien este cambio puede resultar en que más contenido generado por IA y medios manipulados permanezcan en las plataformas de Meta, la empresa cree que proporcionar transparencia e información adicional es una mejor manera de abordar dicho contenido, en lugar de eliminarlo por completo.

Para facilitar este cambio, Meta dejará de eliminar contenido basado únicamente en su política actual de video manipulado en julio. Esta línea de tiempo permite a los usuarios familiarizarse con el proceso de autorrevelación antes de que se elimine el contenido.

La probabilidad de que este cambio de enfoque sea una respuesta a las demandas crecientes impuestas a Meta con respecto a la moderación de contenido y al riesgo sistémico es alta. La Ley de Servicios Digitales de la Unión Europea, que aplica normas a las redes sociales de Meta, ha llevado a la empresa a navegar el delicado equilibrio entre eliminar contenido ilegal y proteger la libertad de expresión.

La crítica de la Junta de Supervisión jugó un papel crucial en la decisión de Meta de revisar sus políticas. La Junta, que está financiada por Meta pero opera de forma independiente, escrutinó la respuesta de Meta al contenido generado por IA. En particular, la Junta destacó la inconsistencia de la política de Meta, que solo se aplicaba a videos creados por IA, dejando intactas otras formas de medios manipulados.

Meta ha reconocido la retroalimentación de la Junta y tiene la intención de ampliar su enfoque para incluir audio generado por IA, fotos y otras formas de medios manipulados. La empresa planea utilizar señales compartidas por la industria para detectar contenido de IA, y los usuarios tendrán la opción de revelar si sus cargas contienen contenido generado por IA.

En casos donde los medios creados o alterados digitalmente representen un riesgo significativo de engañar al público sobre asuntos importantes, Meta puede utilizar etiquetas más prominentes para proporcionar información y contexto adicional. El objetivo es equipar a los usuarios con las herramientas necesarias para evaluar el contenido de manera precisa y comprender su contexto en diferentes plataformas.

Es esencial tener en cuenta que Meta no eliminará contenido manipulado, basado en IA o de otra forma, a menos que viole otras políticas, como la interferencia electoral o el acoso. En su lugar, la empresa agregará etiquetas informativas y contexto en situaciones que generen un alto interés público.

Para garantizar la precisión del contenido, Meta se ha asociado con cerca de 100 verificadores de datos independientes que ayudarán a identificar los riesgos asociados con medios manipulados. Estas entidades externas continuarán revisando el contenido generado por IA falso y engañoso. Cuando el contenido se clasifique como «Falso o Alterado», Meta implementará cambios en los algoritmos para reducir su alcance y mostrar una etiqueta de superposición con información adicional para los usuarios que se crucen con él.

The source of the article is from the blog scimag.news

Privacy policy
Contact