Kunstmatige Intelligentie en de Diversiteit van de LGBTQ+ Gemeenschap

San Francisco, bekend om zijn bloeiende kunstmatige intelligentie (AI) industrie, wordt ook gevierd als een van de meest diverse en LGBTQ+ vriendelijke steden in Amerika. Als thuisbasis van OpenAI, de ontwikkelaar van ChatGPT, grenst de Mission District van de stad aan het iconische Castro-district, waar regenbooggekleurde trottoirs en een levendige queer gemeenschap gebruikelijk zijn. Interessant is dat veel LGBTQ+ individuen actief deelnemen aan de AI revolutie, een feit dat vaak over het hoofd wordt gezien.

Spencer Kaplan, een antropoloog en PhD-student aan Yale die naar San Francisco verhuisde voor zijn onderzoek naar generatieve tools, wijst erop dat een aanzienlijk aantal individuen in het AI-veld zich identificeert als homoseksuele mannen. Toch wordt dit aspect vaak onderbelicht. Zelfs de CEO van OpenAI, Sam Altman, is openlijk homoseksueel en trad vorig jaar in het huwelijk met zijn echtgenoot tijdens een privéceremonie aan het strand. LGBTQ+ betrokkenheid in AI strekt zich verder uit dan Altman en Californië, met een groeiend aantal gemeenschapsleden die bijdragen via initiatieven zoals Queer in AI.

Queer in AI werd opgericht in 2017 tijdens een prestigieuze academische conferentie, met een belangrijke focus op het empoweren en ondersteunen van LGBTQ+ onderzoekers en wetenschappers, met name transgender individuen, non-binaire individuen en mensen van kleur. Een PhD-kandidaat aan UCLA, Anaelia Ovalle, schrijft het toe aan Queer in AI als de reden dat ze standvastig bleef in haar studies in plaats van af te haken. Ovalle doet onderzoek naar algoritmische rechtvaardigheid en deelt hoe de gemeenschap de nodige steun bood om door te gaan.

Een probleem doemt echter op wanneer men overweegt hoe AI-tools de LGBTQ+ mensen afbeelden die actief betrokken zijn bij de ontwikkeling van AI. Wanneer gevraagd wordt om afbeeldingen van queer-individuen te genereren, tonen de beste AI-afbeeldings- en videogeneratoren vaak stereotiepe voorstellingen van de LGBTQ+ cultuur. Ondanks vooruitgang in de kwaliteit van afbeeldingen, tonen door AI gegenereerde afbeeldingen vaak een simplistische en geüniformeerde versie van queer leven.

Terwijl we kijken naar Midjourney, een andere AI-tool die werd gebruikt om portretten van LGBTQ+-mensen te creëren, vertoonden de resultaten vaak de gangbare stereotypen. Lesbische vrouwen werden afgebeeld met neusringen en ernstige uitdrukkingen, terwijl homoseksuele mannen consequent modieuze kleding droegen en een getraind fysiek hadden. Transgender vrouwen werden in basisafbeeldingen hypergeseksualiseerd met lingerie en suggestieve camerahoeken.

Deze gebrek aan representatie en de voortzetting van stereotypen in door AI gegenereerde afbeeldingen komt voort uit de data die wordt gebruikt om de machine learning-algoritmen achter deze tools te trainen. De data, hoofdzakelijk verzameld van het web, versterkt vaak bestaande stereotiepe aannames over queer individuen, zoals verwijfde homoseksuele mannen of mannelijke lesbische vrouwen. Het is essentieel om te erkennen dat vooroordelen en stereotypen ook kunnen ontstaan wanneer AI wordt gebruikt om afbeeldingen van andere minderheidsgroepen te produceren.

Veelgestelde Vragen (FAQ)

1. Waarom wordt San Francisco beschouwd als een centrum van kunstmatige intelligentie-innovatie?
San Francisco staat bekend om zijn bruisende techindustrie en herbergt verschillende grote AI-bedrijven en onderzoeksinstellingen. De stad heeft een cultuur van innovatie en samenwerking gecultiveerd, waardoor het een aantrekkelijke locatie is voor AI-talent.

2. Wat is Queer in AI?
Queer in AI is een initiatief dat tot doel heeft LGBTQ+ onderzoekers en wetenschappers in de AI-gemeenschap te ondersteunen en te empoweren. Opgericht in 2017, richt het zich op het versterken van de stemmen van gemarginaliseerde individuen, waaronder transgender mensen, non-binaire mensen en mensen van kleur.

3. Waarom versterken door AI gegenereerde afbeeldingen vaak stereotypen?
Door AI gegenereerde afbeeldingen weerspiegelen de vooroordelen in de trainingsdata die worden gebruikt om de onderliggende machine learning-algoritmen te ontwikkelen. Als de data reeds stereotiepe aannames over een bepaalde groep versterkt, kan de AI onbedoeld die vooroordelen repliceren in de gegenereerde afbeeldingen.

4. Hoe kunnen vooroordelen in door AI gegenereerde afbeeldingen worden aangepakt?
Om vooroordelen in door AI gegenereerde afbeeldingen aan te pakken, is het essentieel om ervoor te zorgen dat de trainingsdata divers, representatief en vrij van stereotypen is. Daarnaast richten lopende onderzoeks- en ontwikkelinginspanningen zich op het verbeteren van AI-algoritmen om vooroordelen te minimaliseren en een eerlijke representatie te bevorderen.

Bron: OpenAI, www.openai.com

The source of the article is from the blog myshopsguide.com

Privacy policy
Contact