Die Verbindung von Künstlicher Intelligenz und LGBTQ+ Repräsentation

San Francisco, bekannt für seine florierende Künstliche Intelligenz (KI) Industrie, wird auch als eine der vielfältigsten und LGBTQ+ freundlichsten Städte in Amerika gefeiert. Als Hauptsitz von OpenAI, dem Hersteller von ChatGPT, grenzt das Mission District der Stadt an das ikonische Castro-Viertel, wo regenbogenfarbene Bürgersteige und eine lebhafte queere Gemeinschaft an der Tagesordnung sind. Interessanterweise beteiligen sich viele LGBTQ+ Personen aktiv an der KI-Revolution, eine Tatsache, die oft übersehen wird.

Spencer Kaplan, ein Anthropologe und Doktorand an der Yale University, der nach San Francisco für seine Forschung zu generativen Tools gezogen ist, weist darauf hin, dass eine signifikante Anzahl von Personen im KI-Bereich sich als schwule Männer identifizieren. Dennoch wird dieser Aspekt oftmals unterbewertet. Selbst der CEO von OpenAI, Sam Altman, ist offen schwul und hat letztes Jahr eine private Strandhochzeit mit seinem Ehemann gefeiert. Die LGBTQ+ Beteiligung an der KI erstreckt sich weit über Altman und Kalifornien hinaus, mit einer wachsenden Anzahl von Gemeindemitgliedern, die durch Initiativen wie Queer in AI einen Beitrag leisten.

Queer in AI wurde 2017 während einer angesehenen akademischen Konferenz ins Leben gerufen, mit einem Schwerpunkt auf der Stärkung und Unterstützung von LGBTQ+ Forschern und Wissenschaftlern, insbesondere transsexuellen Personen, nicht-binären Personen und Menschen mit Farbgebung. Eine Doktorandin an der UCLA, Anaelia Ovalle, verdankt Queer in AI den Grund, warum sie in ihren Studien hartnäckig geblieben ist und nicht abgebrochen hat. Ovalle forscht zu algorithmischer Fairness und teilt mit, wie die Gemeinschaft die notwendige Unterstützung bot, um sie weiterzubringen.

Ein Problem ergibt sich jedoch, wenn man betrachtet, wie KI-Tools die Menschen aus der LGBTQ+ Community darstellen, die aktiv an der Entwicklung von KI beteiligt sind. Bei der Aufforderung, Bilder von queeren Personen zu generieren, präsentieren die besten KI-Bild- und Videoerzeuger überwiegend stereotype Darstellungen der LGBTQ+ Kultur. Trotz Fortschritten bei der Bildqualität zeigen KI-generierte Bilder oft eine vereinfachte und weißgewaschene Version des queeren Lebens.

Ein weiteres KI-Tool namens Midjourney wurde verwendet, um Porträts von LGBTQ+ Personen zu erstellen, und die Ergebnisse spiegelten gängige Stereotypen wider. Lesbische Frauen wurden mit Nasenringen und ernsten Ausdrücken dargestellt, während schwule Männer konsequent modische Kleidung trugen und trainierte Körper besaßen. Transfrauen wurden in einfachen Bildern hypersexualisiert mit Dessous-Outfits und suggestiven Kamerawinkeln.

Diese fehlende Repräsentation und die Fortführung von Stereotypen in KI-generierten Bildern resultieren aus den Daten, die zur Schulung der maschinellen Lernalgorithmen hinter diesen Tools verwendet werden. Die Daten, die hauptsächlich aus dem Web gesammelt werden, verstärken oft bestehende stereotype Annahmen über queere Personen, wie z. B. effeminierte schwule Männer oder butche lesbische Frauen. Es ist entscheidend zu erkennen, dass auch bei der Verwendung von KI zur Produktion von Bildern anderer Minderheitsgruppen Vorurteile und Stereotypen entstehen können.

Häufig gestellte Fragen (FAQ)

The source of the article is from the blog zaman.co.at

Privacy policy
Contact