San Francisco: Un carrefour de l’intelligence artificielle et de la représentation LGBTQ+

San Francisco, célèbre pour son industrie florissante de l’intelligence artificielle (IA), est également reconnue comme l’une des villes les plus diversifiées et accueillantes pour la communauté LGBTQ+ en Amérique. Siège d’OpenAI, le créateur de ChatGPT, le quartier de Mission de la ville jouxte le célèbre quartier de Castro, où les trottoirs aux couleurs de l’arc-en-ciel et une communauté queer vibrante sont monnaie courante. Il est intéressant de noter que de nombreux individus LGBTQ+ participent activement à la révolution de l’IA, un fait souvent négligé.

Spencer Kaplan, anthropologue et doctorant à Yale ayant déménagé à San Francisco pour ses recherches sur les outils génératifs, souligne qu’un nombre significatif d’individus dans le domaine de l’IA s’identifient comme des hommes gays. Cependant, cet aspect est souvent sous-estimé. Même le PDG d’OpenAI, Sam Altman, est ouvertement gay et s’est marié avec son mari lors d’une cérémonie privée en bord de mer l’année dernière. L’implication LGBTQ+ dans l’IA dépasse largement Altman et la Californie, avec un nombre croissant de membres de la communauté contribuant à travers des initiatives telles que Queer in AI.

Queer in AI a été fondé en 2017 lors d’une conférence académique de renom, avec un accent particulier sur l’autonomisation et le soutien des chercheurs et scientifiques LGBTQ+, en particulier les individus transgenres, non-binaires et les personnes de couleur. Une candidate au doctorat à l’UCLA, Anaelia Ovalle, attribue à Queer in AI le fait qu’elle est restée constante dans ses études au lieu d’abandonner. Ovalle mène des recherches sur l’équité algorithmique et partage comment la communauté lui a apporté le soutien nécessaire pour continuer.

Cependant, un problème se pose lorsqu’on envisage comment les outils d’IA représentent les individus de la communauté LGBTQ+ qui participent activement au développement de l’IA. Lorsqu’on leur demande de générer des images de personnes queer, les meilleurs générateurs d’images et de vidéos d’IA présentent majoritairement des représentations stéréotypées de la culture LGBTQ+. Malgré les progrès en matière de qualité d’image, les images générées par l’IA dépeignent souvent une version simpliste et édulcorée de la vie queer.

Midjourney, un autre outil d’IA, a été utilisé pour créer des portraits de personnes LGBTQ+, et les résultats ont renforcé des stéréotypes largement répandus. Les femmes lesbiennes sont représentées avec des anneaux de nez et des expressions sévères, tandis que les hommes gays portent systématiquement des vêtements à la mode et ont des physiques toniques. Les femmes trans, dans des images de base, sont hypersexualisées avec des tenues de lingerie et des angles de caméra suggestifs.

Ce manque de représentation et la perpétuation des stéréotypes dans les images générées par l’IA découlent des données utilisées pour entraîner les algorithmes d’apprentissage automatique derrière ces outils. Les données, principalement collectées sur le web, renforcent souvent les hypothèses stéréotypées existantes sur les individus queer, tels que des hommes gays efféminés ou des femmes lesbiennes butch. Il est essentiel de reconnaître que des biais et des stéréotypes peuvent également survenir lors de l’utilisation de l’IA pour produire des images d’autres groupes minoritaires.

Foire aux questions (FAQ)

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact