Desafíos en la Representación de la Diversidad por Generadores de Imágenes de IA

Recientes informes han resaltado los significativos desafíos que enfrentan los generadores de imágenes impulsados por inteligencia artificial para representar con precisión parejas interraciales y figuras históricas. Herramientas desarrolladas tanto por Meta como por Google han sido criticadas por su incapacidad para crear imágenes que se alineen con diversos orígenes raciales, lo que ha suscitado preocupaciones acerca de sesgos e inexactitudes.

Un reporte de The Verge reveló que el generador de imágenes impulsado por IA de Meta falla consistentemente en crear imágenes precisas de parejas interraciales y amistades. Incluso cuando se le instruye explícitamente a hacerlo, la herramienta lucha por generar imágenes que presenten individuos de diferentes orígenes raciales. Por ejemplo, indicaciones como «hombre asiático y amigo caucásico» o «hombre asiático y esposa blanca» resultaron en imágenes de personas de la misma raza.

De manera similar, la herramienta de IA Gemini de Google ha enfrentado críticas por su representación de figuras y grupos históricos. La herramienta ha generado imágenes que representan a los Padres Fundadores de EE. UU. y soldados alemanes de la era nazi como personas de color, lo que lleva a representaciones históricamente inexactas. Google reconoció estas inexactitudes y se disculpó por no cumplir con el objetivo de promover la diversidad.

Además de la falta de representación de parejas interraciales, el generador de imágenes de Meta también muestra indicaciones sutiles de sesgo. The Verge señaló que el sistema representaba consistentemente a «mujeres asiáticas» como individuos de aspecto asiático oriental con tez clara. La herramienta también añadía atuendos culturalmente específicos y sesgaba la representación de la edad, generando varios hombres asiáticos mayores y representando consistentemente a las mujeres asiáticas como jóvenes.

Preguntas Frecuentes

1. ¿Por qué los generadores de imágenes de IA tienen dificultades para representar la diversidad?
Los generadores de imágenes de IA enfrentan desafíos para representar con precisión la diversidad debido a sesgos inherentes en los datos de entrenamiento, así como a limitaciones en los algoritmos que emplean. Estos sistemas dependen de vastas cantidades de datos, los cuales pueden estar sesgados hacia ciertos grupos raciales o culturales. Los algoritmos mismos pueden no tener la capacidad de comprender completamente matices complejos y representar de manera adecuada a individuos o situaciones diversas.

2. ¿Cómo pueden las empresas abordar los sesgos en los generadores de imágenes de IA?
Las empresas que desarrollan generadores de imágenes de IA deben considerar cuidadosamente cómo incorporan la diversidad en sus sistemas. Es crucial contar con datos de entrenamiento diversos e inclusivos que representen diferentes orígenes raciales, asegurando que la IA pueda generar imágenes de parejas interraciales y amistades con precisión. Además, las empresas deben trabajar continuamente para refinar sus algoritmos para abordar los sesgos y evitar la perpetuación de estereotipos o la representación errónea de hechos históricos.

3. ¿Qué medidas se han tomado para abordar el problema?
Tanto Meta como Google han reconocido los desafíos y sesgos presentes en sus generadores de imágenes de IA. Google ha limitado la capacidad de Gemini para generar indicaciones históricas específicas, con el objetivo de prevenir representaciones históricamente inexactas. Sin embargo, es importante señalar que el desarrollo de generadores de imágenes de IA es un proceso continuo, y las empresas deberán hacer mejoras constantes para abordar los sesgos y garantizar una representación precisa de la diversidad.

Fuentes:

– The Verge: www.theverge.com

The source of the article is from the blog combopop.com.br

Privacy policy
Contact