Desafíos en la Representación de Parejas Interracial por Generador de Imágenes de IA de Meta

El generador de imágenes de inteligencia artificial de Meta ha sido objeto de críticas por sus presuntas dificultades para producir representaciones precisas de parejas o amigos de diferentes orígenes raciales. La herramienta, lanzada en diciembre, ha enfrentado críticas por su incapacidad para generar imágenes que representen con precisión relaciones interraciales.

Cuando se le pidió a CNN que creara una imagen de un hombre asiático con una esposa blanca, el generador de imágenes de IA produjo repetidamente imágenes de un hombre asiático oriental con una mujer asiática oriental. El mismo problema surgió al solicitar una imagen de una mujer asiática con un esposo blanco. Además, al pedir una imagen de una mujer negra con un esposo blanco, el generador solo generó imágenes de parejas negras.

Las inexactitudes de la herramienta continuaron al solicitar una imagen de una mujer asiática con su amiga caucásica, lo que resultó en imágenes de dos mujeres asiáticas. De manera similar, una solicitud de una imagen de una mujer negra con su amiga asiática generó imágenes de dos mujeres negras. Estos ejemplos muestran la incapacidad del generador de imágenes de IA para representar con precisión diversos orígenes raciales en las imágenes generadas.

Sin embargo, después de varios intentos de CNN, la herramienta finalmente produjo imágenes de un hombre blanco con una mujer negra y un hombre blanco con una mujer asiática al solicitar imágenes de parejas interraciales.

Las preocupaciones sobre el sesgo racial de la herramienta fueron reportadas por primera vez por el medio de noticias tecnológicas The Verge. El informe destacó cómo el generador de imágenes de IA luchaba por visualizar a un hombre asiático con una mujer blanca. Además, cuando se le pidió simplemente generar una imagen de una pareja interracial, la herramienta respondió con un mensaje indicando que no se podía generar la imagen solicitada.

Las parejas interraciales representan una parte significativa de la población en Estados Unidos. Según los datos del censo de EE. UU. de 2022, aproximadamente el 19% de las parejas de sexos opuestos casadas eran interraciales, y casi el 29% de los hogares de parejas no casadas de sexos opuestos eran interraciales. Además, el 31% de las parejas del mismo sexo casadas en 2022 eran interraciales. Estas estadísticas enfatizan la importancia de una representación precisa en las imágenes generadas por IA.

En respuesta a la solicitud de comentario de CNN, Meta hizo referencia a una publicación de blog de la empresa de septiembre que discute el desarrollo responsable de funciones generativas de IA. La publicación del blog reconoció la necesidad de abordar posibles sesgos en los sistemas de IA generativa y mencionó que los comentarios de los usuarios son cruciales para refinar su enfoque.

El generador de imágenes de IA de Meta viene con un descargo de responsabilidad que indica que las imágenes que genera pueden ser inexactas o inapropiadas. A pesar de las promesas del potencial de la IA generativa, incidentes como estos resaltan las luchas continuas que enfrentan las herramientas de IA al tratar con conceptos raciales y representación.

Esta no es la primera vez que las herramientas de IA generativa han enfrentado críticas en esta área. Google pausó la capacidad de su herramienta de IA Gemini para generar imágenes de personas a principios de este año después de que produjera representaciones históricamente inexactas que predominantemente mostraban a personas de color en lugar de individuos blancos. El generador de imágenes Dall-E de OpenAI también ha sido acusado de perpetuar estereotipos raciales y étnicos dañinos.

Las herramientas de IA generativa, incluidas las desarrolladas por Meta, Google y OpenAI, aprenden a partir de vastas cantidades de datos en línea. Sin embargo, los investigadores han advertido que estas herramientas pueden amplificar involuntariamente los sesgos raciales presentes en esos datos, a veces a gran escala.

A pesar de las buenas intenciones detrás de estas herramientas de IA, los incidentes recientes han revelado que es posible que no estén completamente preparadas para un uso generalizado. Los desafíos de representar con precisión diversos orígenes raciales en las imágenes generadas por IA requieren investigación continua y refinamiento para garantizar una representación justa y precisa.

Preguntas Frecuentes

The source of the article is from the blog agogs.sk

Privacy policy
Contact