Výzvy AI obrázkových generátorů vůči správnému zobrazování Asian-White párů

AI obrázkoví generátoři čelí výzvám, když jde o přesné zobrazování Asiatů, zejména v kontextu vztahů mezi Asiaty a bělochy. Tyto systémy, ačkoli si klade za cíl umožnit nové formy spojení a vyjádření, často selhávají a projevují určité předsudky.

Jedním příkladem je Meta AI obrázkový generátor na Instagramu, který se potýkal s tvorbou obrázků Asiatů a bělošek pomocí obecných pokynů. Namísto toho bylo ženino rasování konzistentně změněno na asijskou. I když Meta později znovu zpřístupnila obrázky, problém rasování perzistoval.

Podobné problémy byly zaznamenány i u jiných modelů AI. Uživatelé se setkávali s chybovými hláškami nebo konzistentním rasováním při generování obrázků s pokyny týkajícími se Asiatů a bělošek.

Případ Geminie: Pozastavený obrázkový generátor

Koncem února se Googleho generátor Gemini setkal s jedinečným problémem. Náhodně vytvořil obrázky rasově různorodých nacistů v pokusu dosáhnout různorodé reprzentace. Výsledkem byla pauza ve schopnosti Geminie generovat obrázky lidí. Ačkoli se očekávalo, že generátor se vrátí v březnu, zůstává momentálně offline.

Nicméně Gemini stále dokáže generovat obrázky bez lidí, nabízející částečné řešení pro uživatele hledající nehumánní obrázky.

Výzvy s ChatGPT DALL-E 3 a Midjourney

Jak ChatGPT DALL-E 3, tak i Midjourney zápasy s přesným zobrazováním vztahů mezi Asiáty a běloškami v reakci na specifické pokyny. Ačkoli vygenerované obrázky nebyly zcela mimo mísu, nedosáhly očekávání. Tyto rozpory naznačují, že tyto systémy mají v sobě zakořeněné předsudky z trénovacích sad.

Midjourney například nakonec vytvořil obrázky znázorňující vztah mezi Asiátem a běloškou, ale pouze v odpovědi na pokyn týkající se akademického prostředí. Tím se vyvolávají otázky týkající se zakořeněných předsudků v těchto modelech a kontextů, ve kterých mohou přesně zobrazovat interracial páry.

Trvalé zápasní AI Meta

Vracíme-li se k AI Meta prostřednictvím Instagramu, generátor obrázků projevil zlepšení při zobrazování ne-bílých mužů s běloškami. Usnulo se s pokyny jako „běloška a asijský manžel“ nebo „asijsko-americký muž a bílý přítel“. Avšak stále se potýkal s výzvami při textových pokynech týkajících se rozdílných ras a občas generoval obrázky dvou černých lidí.

Jak se tyto AI obrázkoví generátoři dále vyvíjejí, objevují se určité vzory. Ženy všech ras často nosí stejné bílé květinové bezramenné šaty, zatímco květiny jsou obvyklé v párových obrazech, zejména s asijskými příteli. Rovněž se opakují stereotypy, jako je zobrazování svalnatých černých mužů a převážně plavovlasých nebo zrzavých bělošek.

Ačkoli mluvčí Meta Tracy Clayton uznala, že technologie není dokonalá, je nezbytné řešit tyto rozpory a předsudky, aby zaručili více zahrnující zobrazení pomocí AI generovaných obrázků.

FAQ

Proč mají AI obrázkoví generátoři problém s vytvářením přesných obrázků asianko-bílých párů?
AI obrázkoví generátoři čelí problémům při přesném zobrazování párů asianko-bílých kvůli předsudkům v tréninkových sadách a podkladových rasových algoritmech. Tyto předsudky mohou vyústit v rasování nebo nekonzistentní zobrazení.

Jaké vzory byly pozorovány v AI generovaných obrázcích?
Mezi některé vzory patří ženy všech ras nosící podobné bílé květinové bezramenné šaty a přítomnost květin na obrasích párů, zejména s asijskými přáteli. Kromě toho existují opakující se stereotypy, jako je zobrazování svalnatých černých mužů a převážně plavovlasých nebo zrzavých bělošek.

Jak mohou být AI obrázkoví generátoři vylepšeni pro řešení těchto problémů?
K řešení těchto problémů potřebují AI obrázkoví generátoři různorodé a reprezentativní tréninkové datové sady. To zahrnuje zajištění vyvážené reprezentace různých ras, věků, typů postav a vztahů, aby nedocházelo k udržování stereotypů a předsudků. Vývojáři by měli aktivně pracovat na minimalizaci rasování a usilovat o přesné a zahrnující zobrazení.

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact