Problemy z generowaniem obrazów przez sztuczną inteligencję w kontekście par azjatycko-białoskórych

Sztuczna inteligencja generująca obrazy boryka się z problemami w dokładnym przedstawianiu ludzi azjatyckiego pochodzenia, szczególnie w kontekście par azjatycko-białoskórych. Pomimo tego, że te systemy mają na celu umożliwienie nowych form połączeń i ekspresji, często nie spełniają oczekiwań i wykazują pewne uprzedzenia.

Przykładem jest generator obrazów Meta na Instagramie, który miał problemy z tworzeniem obrazów Azjatów i białych kobiet za pomocą ogólnych poleceń. Zamiast tego system konsekwentnie zmieniał rasę kobiety na azjatycką. Mimo że Meta ponownie udostępniła obrazy, problem zamiany ras nadal występował.

Podobne problemy zgłaszane są również w innych modelach sztucznej inteligencji. Użytkownicy doświadczają komunikatów o błędach lub ciągłych zamianach ras podczas generowania obrazów z poleceń dotyczących Azjatów i białych kobiet.

Sprawa Geminiego: Wstrzymanie generatora obrazów

Pod koniec lutego generator Geminiego od Google’a napotkał unikalny problem. W celu uzyskania różnorodnej reprezentacji przypadkowo generował obrazy rasowo zróżnicowanych nazistów. W rezultacie Google wstrzymało możliwość Geminiego do generowania obrazów ludzi. Mimo że spodziewano się powrotu generatora w marcu, obecnie pozostaje wyłączony.

Jednakże Gemini wciąż może generować obrazy bez ludzi, co stanowi częściowe rozwiązanie dla użytkowników poszukujących obrazów bezpostaciowych.

Wyzwania z ChatGPT’s DALL-E 3 i Midjourney

Zarówno ChatGPT’s DALL-E 3, jak i Midjourney miały problemy z dokładnym przedstawieniem par azjatycko-białoskórych w odpowiedzi na konkretne polecenia. Chociaż wygenerowane obrazy nie były zupełnie nietrafne, to jednak nie spełniły oczekiwań. Niekonsekwencje sugerują istnienie uprzedzeń w zbiorach danych wykorzystywanych przez te systemy.

Midjourney w szczególności w końcu wygenerował obrazy przedstawiające Azjatykę i białą kobietę w relacji, ale tylko w odpowiedzi na polecenie związane z otoczeniem akademickim. Powstają pytania dotyczące uprzedzeń zakodowanych w tych modelach i kontekstów, w których mogą one dokładnie reprezentować pary rasowe.

Trudności Meta AI

Powracając do Meta AI na Instagramie, generator obrazów pokazał poprawę w przedstawianiu mężczyzn niebiałych w towarzystwie białych kobiet. Sukces odnosił w przypadku poleceń takich jak „biała kobieta i mąż Azjata” lub „azjatycki Amerykanin i biała przyjaciółka”. Niemniej jednak nadal miał problemy z polecaniami tekstowymi dotyczącymi różnych ras, czasem generując obrazy dwóch czarnoskórych osób.

W miarę jak te generatory obrazów AI ewoluują, pojawiają się pewne wzorce. Kobiety wszystkich ras często noszą tę samą białą sukienkę bez rękawów z kwiatowym motywem, a kwiaty są powszechne na obrazach par, szczególnie z chłopakami azjatyckiego pochodzenia. Ponadto obserwuje się powracające stereotypy, takie jak przedstawianie muskularnych czarnoskórych mężczyzn i głównie blond czy rudowłosych białych kobiet.

Po to, aby rozwiązać te niespójności i uprzedzenia, istotne jest zapewnienie, by generatory obrazów AI korzystały z różnorodnych i reprezentatywnych zbiorów danych. Należy zagwarantować zrównoważoną reprezentację różnych ras, wieku, typów ciała oraz relacji, aby unikać utrwalania stereotypów i uprzedzeń. Deweloperzy powinni aktywnie pracować nad minimalizowaniem zamiany ras oraz dążyć do dokładnych i włączających reprezentacji.

FAQ

Dlaczego generatory obrazów AI mają trudności z tworzeniem dokładnych obrazów par azjatycko-białoskórych?
Generatory obrazów AI mają trudności z dokładnym przedstawianiem par azjatycko-białoskórych ze względu na uprzedzenia w zbiorach danych i zastosowanych algorytmach rasowych. Te uprzedzenia mogą skutkować zamianą ras lub niekonsekwentnymi reprezentacjami.

Jakie wzorce obserwowano w generowanych obrazach AI?
Niektóre wzorce obejmują kobiety różnych ras noszące podobne białe sukienki bez rękawów z kwiatowym motywem oraz obecność kwiatów na obrazach par, szczególnie tych z chłopakami azjatyckiego pochodzenia. Ponadto pojawiają się powracające stereotypy, takie jak przedstawienia muskularnych czarnoskórych mężczyzn i głównie blond czy rudowłosych białych kobiet.

Jak można poprawić generatory obrazów AI, aby rozwiązać te problemy?
Aby rozwiązać te problemy, generatory obrazów AI potrzebują różnorodnych i reprezentatywnych zbiorów danych. W tym celu konieczne jest zapewnienie zrównoważonej reprezentacji różnych ras, wieku, typów ciała i relacji, aby uniknąć powielania stereotypów i uprzedzeń. Ponadto deweloperzy powinni aktywnie pracować nad minimalizowaniem zamiany ras i dążyć do dokładnych i włączających reprezentacji.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact