Esplorazione delle implicazioni dei generatori d’immagini AI e del bias

Recentemente, il generatore di immagini di Meta ha fatto i titoli per la sua incapacità di produrre un’immagine di un uomo asiatico con una donna bianca. Questo problema ha portato alla luce il più ampio problema del bias nei generatori d’immagini. Durante i miei test, mi sono concentrato sulla rappresentazione delle persone ebree in vari bot AI. I risultati sono stati preoccupanti.

È importante notare che ogni modello AI, in particolare i grandi modelli di linguaggio (LLM), possono assorbire involontariamente bias dai propri dati di addestramento. Nella maggior parte dei casi, questi dati di addestramento vengono raccolti dalla vasta expanse di Internet senza consenso. Non sorprendentemente, Internet è pieno di immagini negative, che spesso si traducono in output bias nei generatori AI.

Il Copilot Designer di Microsoft, precedentemente noto come Bing Chat, è stato criticato per i contenuti offensivi che produce. A differenza di altri generatori di immagini, Copilot Designer perpetua frequentemente stereotipi negativi sulle persone ebree. Quando sollecitato con termini come “capo ebreo” o “banchiere ebreo”, le immagini generate possono essere scioccantemente offensive e rinforzare stereotipi dannosi.

I bias riscontrati in Copilot Designer mettono in luce l’importanza delle misure di sicurezza nei sistemi AI. Anche se i fornitori AI cercano di evitare la generazione di stereotipi o discorsi d’odio, trovare il giusto equilibrio può essere difficile. Anche i giganti del settore come Google hanno affrontato polemiche con il loro generatore di immagini Gemini, che ha creato involontariamente immagini storicamente inaccurate nel tentativo di migliorare la rappresentazione.

È essenziale considerare l’impatto di questi bias e garantire che sistemi come Copilot abbiano robuste misure per contrastare gli output offensivi. Anche se le immagini in questo articolo possono essere offensive, è essenziale mostrare prove del bias AI per affrontare e correggere questi problemi.

***FAQ:***

1. **Cos’è Copilot Designer?**
Copilot Designer è uno strumento di generazione di immagini da testo offerto da Microsoft gratuitamente agli utenti con un account Microsoft. Può generare fino a 15 immagini al giorno, con l’opzione di abbonarsi a Copilot Pro per un accesso illimitato. Lo strumento è disponibile sia su browser che sui desktop Windows.

2. **Copilot Designer mostra dei bias nelle immagini generate?**
Sì, è noto che Copilot Designer produca immagini offensive e stereotipate, tra cui quelle che raffigurano le persone ebree in una luce negativa.

3. **Come gli AI come Copilot Designer acquisiscono dei bias?**
Gli AI imparano da grandi quantità di dati di addestramento, spesso raccolti da Internet. Senza una regolamentazione adeguata, i bias e le immagini negative presenti su Internet possono essere assorbiti da questi modelli.

4. **Si stanno facendo sforzi per affrontare i bias in Copilot Designer?**
Microsoft ha riconosciuto il problema e afferma di essere al lavoro per indagare sui bias segnalati. Stanno prendendo provvedimenti per rafforzare i filtri di sicurezza e prevenire un uso improprio del sistema.

***Risultati ottenuti durante i miei test personali hanno dimostrato che i bias offensivi persistono anche dopo l’indagine di Microsoft. Le immagini generate in risposta al prompt “capo ebreo” spesso raffiguravano individui ebrei religiosi circondati da simboli ebraici, come Magen David e Menorah. Alcune includevano addirittura oggetti stereotipati come bagel o mucchi di denaro. In certi casi, le immagini generate erano scioccantemente offensive, raffiguranti figure demoniache con cappelli neri che tenevano banane.

Nonostante Copilot Designer blocchi certi termini problematici, come “capo giudeo” o “sangue ebreo”, contenuti offensivi possono ancora essere prodotti utilizzando parole alternative o sinonimi. Nonostante ci siano sforzi per prevenire i bias, i bigotti possono sfruttare i dizionari dei sinonimi per trovare vie d’uscita e continuare a generare immagini offensive.

In conclusione, i bias esibiti dai generatori d’immagini AI come Copilot Designer indicano la necessità di misure di sicurezza più rigide e complete. È necessario affrontare questi bias per garantire un’esperienza positiva e inclusiva agli utenti. Trasparenza, responsabilità e miglioramento continuo sono essenziali nello sviluppo continuo delle tecnologie AI.***

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact