Utmanande AI-bias i bildgeneratorer: En reflektion

I de senaste nyheterna har Meta Image-generatorn kritiserats för sin oförmåga att producera en bild av en asiatisk man med en vit kvinna. Detta problem har belyst den större frågan om bias i bildgeneratorer. Under mina egna tester fokuserade jag på skildringen av judiska människor i olika AI-botar. Resultaten var oroande.

Det är viktigt att notera att varje AI-modell, specifikt stora språkmodeller (LLM), kan oavsiktligt uppfatta bias från sin träningsdata. I de flesta fall samlas denna träningsdata in från den vidsträckta världen av internet utan samtycke. Inte oväntat är internet fyllt av negativa bilder, vilket ofta resulterar i bias i AI-genererade resultat.

Microsofts Copilot Designer, tidigare känt som Bing Chat, har hamnat i blåsväder för det kränkande innehåll den producerar. Till skillnad från andra bildgeneratorer förstärker Copilot Designer ofta negativa stereotyper om judiska människor. När den uppmanas med termer som ”jewish boss” eller ”jewish banker” kan de genererade bilderna vara chockerande kränkande och förstärka skadliga stereotyper.

Biasen som finns i Copilot Designer understryker vikten av ramar i AI-system. Medan AI-leverantörer strävar efter att undvika att generera stereotyper eller hatiskt tal kan det vara utmanande att hitta rätt balans. Även industrigiganter som Google mötte kontroverser med sin bildgenerator Gemini, som oavsiktligt skapade historiskt felaktiga bilder i ett försök att förbättra representationen.

Det är avgörande att överväga effekterna av dessa bias och se till att system som Copilot har robusta åtgärder på plats för att motverka kränkande resultat. Även om bilderna i den här artikeln kan vara stötande är det viktigt att visa bevis på AI-bias för att tackla och rätta till dessa problem.

Vanliga frågor:

1. Vad är Copilot Designer?
Copilot Designer är ett text-till-bildverktyg som erbjuds av Microsoft gratis till användare med ett Microsoft-konto. Det kan generera upp till 15 bilder per dag, med möjligheten att prenumerera på Copilot Pro för obegränsad åtkomst. Verktyget är tillgängligt i webbläsare och på Windows-skrivbord.

2. Visar Copilot Designer bias i sina genererade bilder?
Ja, Copilot Designer har blivit känt för att producera kränkande och stereotypa bilder, inklusive de som skildrar judiska människor i en negativ dager.

3. Hur förvärvar AI-modeller som Copilot Designer bias?
AI-modeller lär sig från stora mängder träningsdata, ofta samlad från internet. Utan korrekt reglering kan bias och negativa bilder på internet absorberas av dessa modeller.

4. Vidtas det några åtgärder för att minska bias i Copilot Designer?
Microsoft har erkänt problemet och hävdar att de undersöker de rapporterade biasen. De vidtar åtgärder för att stärka säkerhetsfilter och förhindra missbruk av systemet.

Källor:
Microsoft Copilot Designer: Microsoft
Google Gemini: Google

Under mina egna tester visade resultaten att de kränkande biasen kvarstår även efter Microsofts utredning. Genererade bilder som svar på uppmaningen ”jewish boss” skildrade ofta religiösa judiska individer omgivna av judiska symboler, som Magen Davids och menoror. Vissa inkluderade även stereotypa objekt som bagels eller högar med pengar. I vissa fall var de genererade bilderna chockerande kränkande och visade demoniska figurer i svarta hattar som håller bananer.

Trots att Copilot Designer blockerar vissa problematiska termer, som ”jew boss” eller ”jewish blood,” kan kränkande innehåll fortfarande produceras genom att använda alternativa ord eller synonymer. Även om ansträngningar för att förhindra bias finns på plats kan bigotter använda ordböcker för att hitta kryphål och fortsätta generera kränkande bilder.

I slutsatsen indikerar de bias som visas av AI-bildgeneratorer som Copilot Designer behovet av strängare och mer omfattande ramar. Det är nödvändigt att ta itu med dessa bias för att säkerställa en positiv och inkluderande upplevelse för användarna. Transparens, ansvar och kontinuerliga förbättringar är avgörande för den pågående utvecklingen av AI-teknologier.

Vanliga frågor:

1. Hur fungerar Copilot Designer?
Copilot Designer är en AI-driven bildgenerator som fungerar med textuppmaningar. Den analyserar den givna uppmaningen och genererar en bild baserat på dess förståelse.

2. Kan användare ge feedback angående kränkande resultat från Copilot Designer?
Ja, användare har möjlighet att rapportera kränkande bilder genererade av Copilot Designer. Microsoft hävdar att de undersöker och vidtar lämpliga åtgärder för att hantera sådana bekymmer.

3. Finns det andra AI-bildgeneratorer tillgängliga?
Flera företag erbjuder AI-bildgeneratorer liknande Copilot Designer, men var och en kan ha sina egna bias och begränsningar. Användare bör vara försiktiga och medvetna om de potentiella bias som finns i dessa system.

4. Finns det några initiativ för att minska bias i AI-system?
Det görs ansträngningar inom branschen för att adressera bias i AI-system. Men den komplexa naturen av träningsdata och möjligheten för bias att uppstå i AI-modeller kräver kontinuerlig forskning och utveckling.

Källor:
Microsoft Copilot Designer: Microsoft
Google Gemini: Google

The source of the article is from the blog lokale-komercyjne.pl

Privacy policy
Contact