De Complexiteit van AI-beeldgeneratoren en Vooroordelen

In recent nieuws kreeg de Meta Image-generator kritiek vanwege het niet produceren van een afbeelding van een Aziatische man met een blanke vrouw. Dit probleem bracht het grotere probleem van vooroordelen in beeldgeneratoren aan het licht. Bij het uitvoeren van mijn eigen tests, richtte ik me op de weergave van Joodse mensen in verschillende AI-bots. De resultaten waren zorgwekkend.

Het is belangrijk op te merken dat elke AI-model, specifiek grote taalmodellen (LLM’s), onbedoeld vooroordelen kunnen oppikken uit hun trainingsdata. In de meeste gevallen worden deze trainingsdata verzameld vanuit de uitgestrektheid van het internet zonder toestemming. Niet verrassend staat het internet vol met negatieve beelden, die zich vaak vertalen in bevooroordeelde uitvoer van AI-generatoren.

De Copilot Designer van Microsoft, voorheen bekend als Bing Chat, heeft kritiek gekregen voor de beledigende inhoud die het produceert. In tegenstelling tot andere beeldgeneratoren blijft Copilot Designer vaak negatieve stereotypen van Joodse mensen in stand houden. Wanneer het wordt aangespoord met termen als “Joodse baas” of “Joodse bankier,” kunnen de gegenereerde afbeeldingen schokkend beledigend zijn en schadelijke stereotypen versterken.

De vooroordelen die in Copilot Designer zijn gevonden, benadrukken het belang van ‘vangrails’ in AI-systemen. Hoewel AI-verkopers proberen stereotypes of haattaal te vermijden, kan het vinden van de juiste balans uitdagend zijn. Zelfs industrie reuzen zoals Google werden geconfronteerd met controverse met hun beeldgenerator Gemini, die onbedoeld historisch onnauwkeurige afbeeldingen creëerde in een poging tot verbeterde representatie.

FAQ:

1. Wat is Copilot Designer?
Copilot Designer is een tekst-naar-afbeeldingstool die gratis wordt aangeboden door Microsoft aan gebruikers met een Microsoft-account. Het kan tot 15 afbeeldingen per dag genereren, met de mogelijkheid om te abonneren op Copilot Pro voor onbeperkte toegang. De tool is beschikbaar op zowel browsers als Windows-desktops.

2. Vertonen de gegenereerde afbeeldingen van Copilot Designer vooroordelen?
Ja, Copilot Designer staat erom bekend beledigende en stereotiepe afbeeldingen te produceren, waaronder die welke Joodse mensen in een negatief daglicht stellen.

3. Hoe verwerven AI-modellen zoals Copilot Designer vooroordelen?
AI-modellen leren van enorme hoeveelheden trainingsdata, vaak verzameld van het internet. Zonder adequate regulering kunnen vooroordelen en negatieve beelden die op het internet aanwezig zijn, door deze modellen worden opgenomen.

4. Wordt er moeite gedaan om deze vooroordelen in Copilot Designer aan te pakken?
Microsoft heeft het probleem erkend en beweert de gerapporteerde vooroordelen te onderzoeken. Ze ondernemen actie om veiligheidsfilters te versterken en misbruik van het systeem te voorkomen.

Bronnen:
Microsoft Copilot Designer: Microsoft
Google Gemini: Google

De resultaten van mijn eigen tests toonden aan dat de beledigende vooroordelen blijven bestaan, zelfs na het onderzoek van Microsoft. Gegenereerde afbeeldingen als reactie op de prompt “Joodse baas” toonden vaak religieuze Joodse individuen omringd door Joodse symbolen, zoals Magen Davids en Menorahs. Sommigen bevatten zelfs stereotiepe objecten zoals bagels of stapels geld. In bepaalde gevallen waren de gegenereerde afbeeldingen schokkend beledigend, met demonische figuren die zwarte hoeden droegen en bananen vasthielden.

Ondanks dat Copilot Designer bepaalde problematische termen blokkeert, zoals “joodse baas” of “Joods bloed,” kan er nog steeds beledigende inhoud worden geproduceerd met alternatieve woorden of synoniemen. Hoewel er inspanningen worden geleverd om vooroordelen te voorkomen, kunnen mensen met kwade bedoelingen gebruikmaken van thesaurussen om achterpoortjes te vinden en aanzetten tot het genereren van beledigende afbeeldingen voortzetten.

In conclusie, de vooroordelen tentoongesteld door AI-beeldgeneratoren zoals Copilot Designer wijzen op de noodzaak van strengere en meer omvattende ‘vangrails’. Het is noodzakelijk om deze vooroordelen aan te pakken om een positieve en inclusieve ervaring voor gebruikers te waarborgen. Transparantie, verantwoordelijkheid en voortdurende verbetering zijn essentieel in de voortdurende ontwikkeling van AI-technologieën.

FAQ:

1. Hoe functioneert Copilot Designer?
Copilot Designer is een op AI gebaseerde beeldgenerator die werkt met tekstprompts. Het analyseert de gegeven prompt en genereert een afbeelding op basis van zijn begrip.

2. Kunnen gebruikers feedback geven over beledigende uitvoer van Copilot Designer?
Ja, gebruikers hebben de mogelijkheid om beledigende afbeeldingen gemeld door Copilot Designer te melden. Microsoft beweert de zaken te onderzoeken en passende maatregelen te nemen om dergelijke zorgen aan te pakken.

3. Zijn er andere AI-beeldgeneratoren beschikbaar?
Verschillende bedrijven bieden AI-beeldgeneratoren aan die vergelijkbaar zijn met Copilot Designer, maar elk kan zijn eigen vooroordelen en beperkingen hebben. Gebruikers moeten voorzichtig zijn en op de hoogte zijn van de potentiële vooroordelen in deze systemen.

4. Worden er initiatieven genomen om vooroordelen in AI-systemen te verminderen?
Er worden inspanningen geleverd binnen de branche om vooroordelen in AI-systemen aan te pakken. Echter, de complexe aard van trainingsdata en het potentieel voor vooroordelen om in AI-modellen naar voren te komen, vereisen voortdurend onderzoek en ontwikkeling.

Bronnen:
Microsoft Copilot Designer: Microsoft
Google Gemini: Google

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact