Die Herausforderungen von KI-Generierungstools bei der Darstellung interkultureller Paare

Meta’s KI-Abbildungs-Tool steht in der Kritik wegen angeblicher Schwierigkeiten bei der Erstellung genauer Darstellungen von Paaren oder Freunden aus verschiedenen ethnischen Hintergründen. Das Tool, das im Dezember veröffentlicht wurde, wurde für seine Unfähigkeit kritisiert, Bilder zu generieren, die interkulturelle Beziehungen präzise darstellen.

Auf Anfrage von CNN, ein Bild eines asiatischen Mannes mit einer weißen Frau zu erstellen, generierte das KI-Abbildungs-Tool wiederholt Bilder eines ostasiatischen Mannes mit einer ostasiatischen Frau. Das gleiche Problem trat auf, als darum gebeten wurde, ein Bild einer asiatischen Frau mit einem weißen Ehemann zu erstellen. Darüber hinaus generierte das Tool nur Bilder von schwarzen Paaren, als darum gebeten wurde, ein Bild einer schwarzen Frau mit einem weißen Ehemann zu erstellen.

Die Ungenauigkeiten des Tools setzten sich fort, als darum gebeten wurde, ein Bild einer asiatischen Frau mit ihrem kaukasischen Freund zu erstellen, was zu Bildern von zwei asiatischen Frauen führte. Ähnlich generierte eine Anfrage nach einem Bild einer schwarzen Frau mit ihrem asiatischen Freund Bilder von zwei schwarzen Frauen. Diese Beispiele verdeutlichen die Unfähigkeit des KI-Abbildungs-Tools, diverse ethnische Hintergründe in seinen generierten Bildern korrekt darzustellen.

Nach mehreren Versuchen von CNN konnte das Tool schließlich Bilder eines weißen Mannes mit einer schwarzen Frau und eines weißen Mannes mit einer asiatischen Frau generieren, als darum gebeten wurde, Bilder von interkulturellen Paaren zu erstellen.

Die Bedenken hinsichtlich der rassistischen Voreingenommenheit des Tools wurden erstmals von dem Technik-Nachrichtenportal The Verge gemeldet. Der Bericht hob hervor, wie das KI-Abbildungs-Tool Probleme hatte, sich einen asiatischen Mann mit einer weißen Frau vorzustellen. Darüber hinaus wurde festgestellt, dass das Tool auf eine Anfrage, einfach ein Bild eines interkulturellen Paares zu generieren, mit einer Meldung reagierte, dass das angeforderte Bild nicht erstellt werden konnte.

Interkulturelle Paare machen einen bedeutenden Teil der Bevölkerung in Amerika aus. Laut den US-Zensusdaten von 2022 waren etwa 19% der verheirateten gegengeschlechtlichen Paare interkulturell, während fast 29% der unverheirateten gegengeschlechtlichen Paare interkulturell waren. Darüber hinaus waren 31% der verheirateten gleichgeschlechtlichen Paare im Jahr 2022 interkulturell. Diese Statistiken unterstreichen die Bedeutung einer genauen Darstellung in KI-generierten Bildern.

Auf die Anfrage von CNN um Stellungnahme verwies Meta auf einen Unternehmensblogbeitrag im September, der die verantwortungsbewusste Entwicklung von generativen KI-Funktionen diskutierte. Der Blogbeitrag erkannte die Notwendigkeit an, mögliche Voreingenommenheiten in generativen KI-Systemen anzusprechen, und erwähnte, dass das Feedback der Nutzer entscheidend sei, um ihren Ansatz zu verbessern.

Das KI-Abbildungs-Tool wird mit einem Haftungsausschluss geliefert, der besagt, dass die generierten Bilder ungenau oder unangemessen sein können. Trotz der Versprechungen des Potenzials von generativer KI verdeutlichen Vorfälle wie diese die fortlaufenden Schwierigkeiten, mit denen KI-Tools bei der Bearbeitung von Rassenkonzepten und -darstellungen konfrontiert sind.

Dies ist nicht das erste Mal, dass generative KI-Tools in diesem Bereich kritisiert wurden. Google pausierte die Fähigkeit seines KI-Tools Gemini, Bilder von Menschen zu generieren, früher in diesem Jahr, nachdem es historisch ungenaue Darstellungen produziert hatte, die hauptsächlich Personen mit Farbhaut anstelle von Weißen zeigten. Auch OpenAI’s Dall-E-Bildgenerator wurde beschuldigt, schädliche rassistische und ethnische Stereotypen zu perpetuieren.

Generative KI-Tools, darunter solche entwickelt von Meta, Google und OpenAI, lernen aus großen Mengen von Online-Daten. Forscher haben jedoch davor gewarnt, dass diese Tools die vorhandenen rassistischen Voreingenommenheiten in diesen Daten unbeabsichtigt verstärken können, manchmal in großem Maßstab.

Trotz der guten Absichten hinter diesen KI-Tools haben jüngste Vorfälle gezeigt, dass sie möglicherweise nicht vollständig auf den weit verbreiteten Einsatz vorbereitet sind. Die Herausforderungen, diverse ethnische Hintergründe in KI-generierten Bildern präzise darzustellen, erfordern fortlaufende Forschung und Verbesserungen, um eine faire und genaue Darstellung zu gewährleisten.

FAQs

1. Was ist Meta’s KI-Abbildungs-Tool?
Meta’s KI-Abbildungs-Tool ist ein Tool, das von Meta entwickelt wurde, um automatisch Bilder auf Basis von Nutzeranfragen zu erstellen. Es verwendet generative KI-Technologie, um einzigartige Bilder zu generieren.

2. Warum wird Meta’s KI-Abbildungs-Tool kritisiert?
Das KI-Abbildungs-Tool steht in der Kritik für seine offensichtlichen Schwierigkeiten, Bilder von Paaren oder Freunden aus verschiedenen ethnischen Hintergründen präzise zu erstellen. Berichten zufolge hat das Tool oft Schwierigkeiten, interkulturelle Beziehungen korrekt darzustellen und generiert stattdessen Bilder, die rassistische Vorurteile verstärken.

3. Wie genau sind die Bilder, die vom KI-Tool generiert werden?
Meta’s KI-Abbildungs-Tool wird mit einem Haftungsausschluss geliefert, der besagt, dass die generierten Bilder ungenau oder unangemessen sein können. Nutzer haben darauf hingewiesen, dass das Tool gelegentlich versagt, Paare oder Freunde aus unterschiedlichen ethnischen Hintergründen präzise darzustellen, was seine Einschränkungen in diesem Bereich verdeutlicht.

4. Welche Schritte unternimmt Meta, um das Problem anzugehen?
Meta hat auf einen Unternehmensblogbeitrag verwiesen, in dem die verantwortungsbewusste Entwicklung von generativen KI-Funktionen diskutiert wird. Sie erkennen die Notwendigkeit an, Vorurteile zu reduzieren und ihren Ansatz zur Lösung potenzieller Probleme zu verbessern. Sie ermutigen die Nutzer, Feedback zu geben, um die Genauigkeit und Inklusivität des Tools zu verbessern.

5. Wie hängen diese Vorfälle mit anderen KI-Abbildungs-Tools zusammen?
Ähnliche Vorfälle wurden auch bei anderen KI-Abbildungs-Tools, darunter Google’s Gemini und OpenAI’s Dall-E, berichtet. Diese Tools wurden kritisiert, weil sie ungenaue oder stereotypische Bilder produzierten, was die fortlaufenden Herausforderungen verdeutlicht, mit denen KI-Tools bei der Behandlung von Rassenkonzepten und -darstellungen konfrontiert sind.

Quellen:
CNN-Artikel
US-Zensus-Daten

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact