Le sfide dell’intelligenza artificiale nell’immaginare coppie asiatico-bianche

L’intelligenza artificiale (IA) ha incontrato difficoltà nell’accurata rappresentazione di persone asiatiche, in particolare nelle coppie asiatico-bianche. Questi sistemi, pur mirando a favorire nuove forme di connessione ed espressione, spesso deludono e mostrano dei pregiudizi.

Un esempio è l’AI image generator di Meta su Instagram, che ha faticato a creare immagini di uomini asiatici e donne bianche utilizzando prompt generici. Invece, cambiava costantemente la razza della donna in asiatica. Anche se Meta in seguito ha reso di nuovo disponibili le immagini, il problema dello scambio di razza è persistito.

Sono stati segnalati problemi simili con altri modelli di intelligenza artificiale. Gli utenti hanno riscontrato messaggi di errore o scambi continui di razza durante la generazione di immagini con prompt che coinvolgono uomini asiatici e donne bianche.

Il Caso di Gemini: Il generatore di immagini sospeso

Alla fine di febbraio, il generatore di Gemini di Google ha affrontato un problema unico. Ha generato accidentalmente immagini di nazisti etnicamente diversi nel tentativo di ottenere una rappresentazione diversificata. Di conseguenza, Google ha messo in pausa la capacità di Gemini di generare immagini di persone. Sebbene si prevedesse il ritorno del generatore a marzo, attualmente rimane offline. Tuttavia, Gemini può comunque generare immagini senza persone, offrendo una soluzione parziale per gli utenti alla ricerca di immagini non umane.

Sfide con ChatGPT’s DALL-E 3 e Midjourney

Sia ChatGPT’s DALL-E 3 sia Midjourney hanno avuto difficoltà nell’accurata rappresentazione di uomini asiatici e donne bianche in risposta a prompt specifici. Sebbene le immagini generate non fossero del tutto sbagliate, non soddisfacevano le aspettative. Le inconsistenze suggeriscono la presenza di pregiudizi nei set di addestramento utilizzati da questi sistemi.

Midjourney, in particolare, alla fine ha prodotto immagini che rappresentavano un uomo asiatico e una donna bianca in una relazione, ma solo in risposta a un prompt riguardante un ambiente accademico. Questo solleva quesiti sui pregiudizi incorporati in questi modelli e sui contesti in cui possono rappresentare accuratamente coppie interrazziali.

La continua lotta dell’IA di Meta

Tornando all’IA di Meta tramite Instagram, il generatore di immagini ha mostrato miglioramenti nella rappresentazione di uomini non bianchi con donne bianche. Ha avuto successo con prompt come “donna bianca e marito asiatico” o “uomo asiatico americano e amico bianco”. Tuttavia, ha ancora affrontato sfide con prompt di testo che coinvolgono razze diverse, generando occasionalmente immagini di due persone nere invece.

Man mano che questi AI image generators continuano a evolversi, sono emersi certi schemi. Le donne di tutte le razze spesso indossano lo stesso abito bianco a fiori senza maniche, e i fiori sono comuni nelle immagini di coppie, in particolare con fidanzati asiatici. Inoltre, ci sono stereotipi ricorrenti, come la rappresentazione di uomini neri muscolosi e donne bianche prevalentemente bionde o rosse.

Come portare miglioramenti ai generatore di immagini AI per affrontare questi problemi?
Per affrontare queste questioni, i generatori di immagini AI hanno bisogno di set di dati di addestramento diversificati e rappresentativi. Ciò include garantire una rappresentazione bilanciata di diverse razze, età, tipi di corpo e relazioni per evitare di perpetuare stereotipi e pregiudizi. Inoltre, gli sviluppatori dovrebbero lavorare attivamente per ridurre al minimo lo scambio di razza e cercare rappresentazioni accurate e inclusive.

Sources:

The Verge

Domande frequenti

The source of the article is from the blog aovotice.cz

Privacy policy
Contact