De uitdagingen van Meta’s AI-beeldgenerator bij het nauwkeurig afbeelden van diversiteit

Meta’s AI-beeldgenerator is recent onder vuur komen te liggen vanwege vermeende moeilijkheden bij het produceren van nauwkeurige afbeeldingen van stellen of vrienden met verschillende raciale achtergronden. De tool, gelanceerd in december, heeft kritiek gekregen vanwege zijn onvermogen om afbeeldingen te genereren die op een nauwkeurige manier interraciale relaties weergeven.

Toen CNN verzocht om een foto te maken van een Aziatische man met een blanke vrouw, produceerde de AI-beelgenerator herhaaldelijk afbeeldingen van een Oost-Aziatische man met een Oost-Aziatische vrouw. Hetzelfde probleem deed zich voor toen gevraagd werd om een afbeelding te maken van een Aziatische vrouw met een blanke man. Bovendien genereerde de tool alleen afbeeldingen van zwarte stellen toen er werd gevraagd om een afbeelding van een zwarte vrouw met een blanke man.

De onnauwkeurigheden van de tool gingen door toen er om een afbeelding werd gevraagd van een Aziatische vrouw met haar Kaukasische vriendin, resulterend in afbeeldingen van twee Aziatische vrouwen. Op vergelijkbare wijze genereerden verzoeken om een afbeelding van een zwarte vrouw met haar Aziatische vriendin foto’s van twee zwarte vrouwen. Deze voorbeelden tonen de onbekwaamheid van de AI-beeldgenerator aan om nauwkeurig diverse raciale achtergronden in zijn gegenereerde afbeeldingen weer te geven.

Echter, na verschillende pogingen door CNN, slaagde de tool er uiteindelijk wel in afbeeldingen te produceren van een blanke man met een zwarte vrouw en een blanke man met een Aziatische vrouw toen gevraagd werd om afbeeldingen van interraciale stellen te maken.

De zorgen met betrekking tot de raciale vooringenomenheid van de tool werden voor het eerst gemeld door de technieuwswebsite The Verge. Het rapport benadrukte hoe de AI-beeldgenerator moeite had om zich een Aziatische man met een blanke vrouw voor te stellen. Bovendien, toen er simpelweg gevraagd werd om een afbeelding van een interraciaal stel te genereren, gaf de tool een melding dat de gevraagde afbeelding niet kon worden gegenereerd.

Interraciale stellen vormen een aanzienlijk deel van de bevolking in Amerika. Volgens gegevens van de Amerikaanse volkstelling uit 2022 was ongeveer 19% van gehuwde stellen van verschillend geslacht interraciaal, met bijna 29% van ongehuwde stellen van verschillend geslacht die interraciaal waren. Daarnaast was 31% van de gehuwde stellen van hetzelfde geslacht in 2022 interraciaal. Deze statistieken benadrukken het belang van een accurate representatie in door AI gegenereerde afbeeldingen.

Als reactie op het verzoek van CNN om commentaar, verwees Meta naar een bedrijfsblogpost uit september die de verantwoorde ontwikkeling van generatieve AI-functies besprak. De blogpost erkende de noodzaak om mogelijke vooringenomenheid in generatieve AI-systemen aan te pakken en vermeldde dat gebruikersfeedback cruciaal is voor het verfijnen van hun aanpak.

De AI-beeldgenerator wordt geleverd met een disclaimer waarin staat dat de gegenereerde afbeeldingen mogelijk onnauwkeurig of ongepast zijn. Ondanks de beloften van het potentieel van generatieve AI, benadrukken incidenten als deze de voortdurende uitdagingen waarmee AI-tools worden geconfronteerd bij het omgaan met raciale concepten en representatie.

Dit is niet de eerste keer dat generatieve AI-tools kritiek hebben gekregen op dit gebied. Google pauzeerde eerder dit jaar de mogelijkheid van zijn AI-tool Gemini om afbeeldingen van mensen te genereren nadat het historisch onnauwkeurige afbeeldingen had geproduceerd waarin voornamelijk mensen van kleur werden getoond in plaats van blanke individuen. Ook OpenAI’s Dall-E-beeldgenerator is beschuldigd van het in stand houden van schadelijke raciale en etnische stereotypen.

Generatieve AI-tools, inclusief die ontwikkeld door Meta, Google en OpenAI, leren van grote hoeveelheden online data. Echter, onderzoekers hebben gewaarschuwd dat deze tools onbedoeld de raciale vooroordelen in die data kunnen versterken, soms op grotere schaal.

Ondanks de goede bedoelingen achter deze AI-tools, hebben recente incidenten aan het licht gebracht dat ze mogelijk nog niet volledig klaar zijn voor grootschalig gebruik. De uitdagingen van het nauwkeurig vertegenwoordigen van diverse raciale achtergronden in door AI gegenereerde afbeeldingen vereisen voortdurend onderzoek en verfijning om een eerlijke en accurate representatie te waarborgen.

FAQs

The source of the article is from the blog scimag.news

Privacy policy
Contact