Nuevos Horizontes en la Intersección de Inteligencia Artificial y Representación LGBTQ+

La ciudad de San Francisco, reconocida por su próspera industria de inteligencia artificial (IA), también es celebrada como una de las ciudades más diversas y amigables con la comunidad LGBTQ+ en América. Como sede de OpenAI, la creadora de ChatGPT, el vecindario de Mission District de la ciudad limita con el icónico distrito de Castro, donde las aceras de colores del arcoíris y una vibrante comunidad queer son comunes. Interesantemente, muchas personas LGBTQ+ participan activamente en la revolución de IA, un hecho que tiende a pasarse por alto.

Spencer Kaplan, un antropólogo y estudiante de doctorado en Yale que se mudó a San Francisco para su investigación sobre herramientas generativas, señala que un número significativo de individuos en el campo de la IA se identifican como hombres gay. Sin embargo, este aspecto suele ser subestimado. Incluso el CEO de OpenAI, Sam Altman, es abiertamente gay y se casó con su esposo en una ceremonia privada frente a la playa el año pasado. La participación LGBTQ+ en la IA va mucho más allá de Altman y California, con un creciente número de miembros de la comunidad que contribuyen a través de iniciativas como Queer in AI.

Queer in AI fue fundado en 2017 durante una prestigiosa conferencia académica, con un enfoque principal en empoderar y apoyar a investigadores y científicos LGBTQ+, especialmente a individuos transgénero, no binarios y personas de color. Una candidata a doctorado en UCLA, Anaelia Ovalle, le atribuye a Queer in AI la razón por la que se mantuvo firme en sus estudios en lugar de abandonarlos. Ovalle investiga sobre equidad algorítmica y comparte cómo la comunidad le brindó el apoyo necesario para seguir adelante.

Sin embargo, surge un problema al considerar cómo las herramientas de IA representan a las mismas personas de la comunidad LGBTQ+ que participan activamente en el desarrollo de la IA. Cuando se les pide que generen imágenes de personas queer, los mejores generadores de imágenes y videos de IA presentan abrumadoramente representaciones estereotipadas de la cultura LGBTQ+. A pesar de los avances en la calidad de imagen, las imágenes generadas por IA a menudo representan una versión simplista y blanqueada de la vida queer.

Midjourney, otra herramienta de IA, se utilizó para crear retratos de personas LGBTQ+ y los resultados reflejaron estereotipos ampliamente aceptados. Las mujeres lesbianas fueron retratadas con anillos en la nariz y expresiones severas, mientras que los hombres gay llevaban consistentemente atuendos elegantes y tenían una complexión tonificada. Las mujeres trans, en imágenes básicas, fueron hipersexualizadas con atuendos de lencería y ángulos de cámara sugestivos.

Esta falta de representación y perpetuación de estereotipos en las imágenes generadas por IA se deriva de los datos utilizados para entrenar los algoritmos de aprendizaje automático detrás de estas herramientas. Los datos, recopilados principalmente de la web, a menudo refuerzan suposiciones estereotipadas existentes sobre personas queer, como hombres gay afeminados o mujeres lesbianas masculinas. Es fundamental reconocer que los prejuicios y estereotipos también pueden surgir al utilizar IA para producir imágenes de otros grupos minoritarios.

Preguntas Frecuentes (FAQ)

  • ¿Por qué se considera a San Francisco un centro de innovación en inteligencia artificial?
  • San Francisco es conocida por su bulliciosa industria tecnológica y alberga varias empresas e instituciones de investigación de IA de renombre. La ciudad ha fomentado una cultura de innovación y colaboración, lo que la convierte en un lugar atractivo para el talento en IA.

  • ¿Qué es Queer in AI?
  • Queer in AI es una iniciativa que tiene como objetivo apoyar y empoderar a investigadores y científicos LGBTQ+ en la comunidad de IA. Fundada en 2017, se centra en amplificar las voces de individuos marginados, incluidas personas transgénero, no binarias y personas de color.

  • ¿Por qué las imágenes generadas por IA a menudo refuerzan estereotipos?
  • Las imágenes generadas por IA reflejan los sesgos presentes en los datos de entrenamiento utilizados para desarrollar los algoritmos de aprendizaje automático subyacentes. Si los datos ya perpetúan suposiciones estereotipadas sobre un grupo en particular, la IA puede replicar involuntariamente esos sesgos en las imágenes generadas.

  • ¿Cómo se pueden abordar los sesgos en las imágenes generadas por IA?
  • Para abordar los sesgos en las imágenes generadas por IA, es crucial asegurar que los datos de entrenamiento sean diversos, representativos y libres de estereotipos. Además, los esfuerzos de investigación y desarrollo continuos se centran en mejorar los algoritmos de IA para minimizar los sesgos y promover una representación justa.

Fuente: OpenAI

The source of the article is from the blog dk1250.com

Privacy policy
Contact