Desafíos en la Representación de Parejas Asiáticas-Blancas por Generadores de Imágenes de IA

Los generadores de imágenes de IA han enfrentado desafíos al representar con precisión a personas asiáticas, en particular en el contexto de parejas asiáticas y blancas. Estos sistemas, aunque buscan habilitar nuevas formas de conexión y expresión, a menudo se quedan cortos y muestran sesgos.

Un ejemplo es el generador de imágenes de IA de Meta en Instagram, que tuvo dificultades para crear imágenes de hombres asiáticos y mujeres blancas con simples indicaciones generales. En lugar de ello, cambiaba consistentemente la raza de la mujer a asiática. Aunque Meta volvió a habilitar las imágenes, el problema del intercambio de razas persistió.

Se han reportado problemas similares con otros modelos de IA. Los usuarios han encontrado mensajes de error o intercambio consistente de razas al generar imágenes con indicaciones que involucran a hombres asiáticos y mujeres blancas.

La Caída de Géminis: El Generador de Imágenes Pausado

A finales de febrero, el generador Géminis de Google enfrentó un problema único: generó accidentalmente imágenes de nazis racialmente diversos en un intento por lograr una representación diversa. Como resultado, Google pausó la capacidad de Géminis para generar imágenes de personas. Aunque se esperaba que el generador regresara en marzo, actualmente sigue desconectado.

Sin embargo, Géminis todavía puede generar imágenes sin personas, ofreciendo una solución parcial para usuarios que buscan imágenes no humanas.

Desafíos de ChatGPT’s DALL-E 3 y Midjourney

Tanto ChatGPT’s DALL-E 3 como Midjourney lucharon por representar con precisión a hombres asiáticos y mujeres blancas en respuesta a indicaciones específicas. Aunque las imágenes generadas no estaban completamente alejadas de lo correcto, no cumplieron con las expectativas. Las inconsistencias sugieren sesgos subyacentes en los conjuntos de datos de entrenamiento utilizados por estos sistemas.

Midjourney, en particular, eventualmente produjo imágenes que representaban a un hombre asiático y una mujer blanca en una relación, pero solo en respuesta a una indicación que involucraba un entorno académico. Esto plantea interrogantes sobre los sesgos incrustados en estos modelos y los contextos en los que pueden representar con precisión a parejas interraciales.

La Lucha Continua de Meta AI

Volviendo a Meta AI a través de Instagram, el generador de imágenes mostró mejoras al representar a hombres no blancos con mujeres blancas. Tuvo éxito con indicaciones como «mujer blanca y esposo asiático» o «hombre asiático-estadounidense y amiga blanca». Sin embargo, todavía enfrentaba desafíos con indicaciones de texto que involucraban diferentes razas, generando ocasionalmente imágenes de dos personas negras en su lugar.

A medida que estos generadores de imágenes de IA continúan evolucionando, han surgido ciertos patrones. Las mujeres de todas las razas suelen llevar el mismo vestido blanco sin mangas de flores, y las flores son comunes en imágenes de parejas, especialmente con novios asiáticos. Además, existen estereotipos recurrentes, como la representación de hombres negros musculosos y mujeres blancas mayoritariamente rubias o pelirrojas.

A pesar de que la portavoz de Meta, Tracy Clayton, reconoció que la tecnología no es perfecta, es esencial abordar estas inconsistencias y sesgos para garantizar una representación más inclusiva a través de imágenes generadas por IA.

Preguntas Frecuentes

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact