Lösa AI-bildgeneratorers utmaningar med avbildning av asiatisk-vita par

AI-bildgeneratorer har stött på problem när det gäller att noggrant avbilda asiatiska personer, särskilt i sammanhang med asiatiskt-vita par. Dessa system, trots att de syftar till att möjliggöra nya former av anslutning och uttryck, går ofta fel och uppvisar bias.

Enligt The Verge hade Meta’s AI-bildgenerator på Instagram problem med att skapa bilder av en asiatisk man och en vit kvinna med generella uppmaningar. Istället bytte den konsekvent kvinnans ras till asiatisk. Även om Meta senare gjorde bilderna tillgängliga igen, återstod problemet med rasbyte.

Liknande problem har rapporterats med andra AI-modeller. Användare har stött på felmeddelanden eller konstanta rasbyten när de genererar bilder med uppmaningar som involverar asiatiska män och vita kvinnor.

I slutet av februari ställdes Googles Gemini-generator inför ett unikt problem. Den genererade av misstag bilder av etniskt varierande nazister i ett försök att uppnå mångfaldig representation. Följaktligen pausade Google Geminis förmåga att generera bilder på människor. Trots att generatorn förväntades återkomma i mars är den för närvarande offline. Trots detta kan Gemini fortfarande generera bilder utan människor, vilket ger en partiell lösning för användare som söker icke-mänskliga bilder.

Både ChatGPT’s DALL-E 3 och Midjourney har också haft problem med att noggrant avbilda asiatiska män och vita kvinnor i svar på specifika uppmaningar. Även om de genererade bilderna inte var helt felaktiga, levde de inte upp till förväntningarna och antydde bias i de träningsuppsättningar som användes av dessa system. Midjourney producerade slutligen bilder som representerade en asiatisk man och en vit kvinna, men endast som svar på en akademisk uppmaning, vilket väcker frågor om bias och sammanhangsbegränsningar.

Meta AI:s bildgenerator på Instagram visade förbättringar när det gäller att avbilda icke-vita män med vita kvinnor. Den lyckades med uppmaningar som ”vit kvinna och asiatisk make” eller ”asiatisk amerikansk man och vit vän”. Men den stötte fortfarande på utmaningar med textuppmaningar som involverade olika raser och skulle ibland generera bilder av två svarta personer istället.

När dessa AI-bildgeneratorer fortsätter att utvecklas har vissa mönster framträtt. Till exempel bär kvinnor av alla raser ofta samma vita ärmlösa klänning med blommor och blommor är vanliga i parbilder, särskilt de med asiatiska pojkvänner. Det finns också återkommande stereotyper, såsom att avbilda muskulösa svarta män och övervägande blonda eller rödbruna vita kvinnor.

För att adressera dessa inkonsekvenser och bias är det viktigt att säkerställa att AI-bildgeneratorer har olika och representativa träningsdatauppsättningar. Detta inkluderar att säkerställa en balanserad representation av olika raser, åldrar, kroppsformer och relationer för att undvika att förstärka stereotyper och bias. Utvecklare bör aktivt arbeta för att minimera rasbyten och sträva efter noggranna och inkluderande avbildningar.

FAQ

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact