Provocările Inteligenței Artificiale în Generarea Imaginilor și Diversitate

Ultimele rapoarte au evidențiat provocările semnificative pe care le întâmpină generatoarele de imagini alimentate de inteligență artificială în reprezentarea precisă a cuplurilor interrasiale și a figurilor istorice. Instrumentele dezvoltate atât de Meta, cât și de Google au fost criticate pentru incapacitatea lor de a crea imagini care să se alinieze cu diferitele fundaluri rasiale, generând îngrijorări legate de biasuri și inexactități.

Un raport realizat de The Verge a arătat că generatorul de imagini alimentat de AI al Meta eșuează constant în crearea de imagini precise ale cuplurilor interrasiale și ale prieteniilor. Chiar și atunci când este explicit instruit să facă acest lucru, instrumentul se confruntă cu dificultăți în generarea de imagini ce prezintă indivizi de diferite rase. De exemplu, solicitările precum „bărbat asiatic și prieten de rasă caucaziană” sau „bărbat asiatic și soție albă” au condus la imagini cu oameni de aceeași rasă.

Similar, instrumentul Gemini AI al Google a fost criticat pentru modul în care a descris figuri și grupuri istorice. A generat imagini ce îi înfățișează pe Părinții Fondatori ai SUA și soldații germani din era nazistă ca persoane de culoare, generând astfel reprezentări istoric inexacte. Google a recunoscut aceste inexactități și a cerut scuze pentru că a ratat ținta în eforturile lor de a promova diversitatea.

În plus față de lipsa de reprezentare a cuplurilor interrasiale, generatorul de imagini al Meta prezintă și indicații subtile ale unor biasuri. The Verge a observat că sistemul reprezenta în mod constant „femei asiatice” ca persoane cu aspect est-asiatic și cu ten deschis. Instrumentul adăuga, de asemenea, haine specifice cultural și distorsiona reprezentarea vârstei, generând mai mulți bărbați asiatici mai în vârstă și reprezentând în mod constant femeile asiatice ca fiind tinere.

Întrebări frecvente

1. De ce se luptă generatoarele AI de imagini să reprezinte diversitatea?
Generatoarele de imagini AI se confruntă cu provocări în a reprezenta precis diversitatea din cauza biasurilor încorporate în datele de antrenament, precum și a limitărilor algoritmilor pe care îi utilizează. Aceste sisteme se bazează pe cantități imense de date, care pot fi părtinitoare în favoarea anumitor grupuri rasiale sau culturale. Algoritmii înșiși pot să nu aibă capacitatea de a înțelege pe deplin nuanțele complexe și de a reprezenta în mod adecvat indivizii sau scenariile diversificate.

2. Cum pot companiile să abordeze biasurile din generatoarele AI de imagini?
Companiile care dezvoltă generatoare de imagini AI trebuie să ia în considerare cu atenție modul în care integrează diversitatea în sistemele lor. Este crucial să existe date de antrenament diverse și incluzive care să reprezinte diferite fundaluri rasiale, asigurându-se că AI-ul poate genera imagini ale cuplurilor interrasiale și ale prieteniilor cu precizie. În plus, companiile ar trebui să lucreze continuu pentru a-și perfecționa algoritmii pentru a aborda biasurile și pentru a evita perpetuarea stereotipurilor sau reprezentarea eronată a faptelor istorice.

3. Ce pași s-au făcut pentru a aborda această problemă?
Atât Meta, cât și Google au recunoscut provocările și biasurile prezente în generatoarele lor de imagini AI. Google a limitat capacitatea lui Gemini de a genera prompturi istorice specifice, cu scopul de a preveni alte reprezentări istorice inexacte. Cu toate acestea, este important de menționat că dezvoltarea generatoarelor de imagini AI este un proces în curs de desfășurare, iar companiile vor trebui să facă îmbunătățiri continue pentru a aborda biasurile și a asigura o reprezentare precisă a diversității.

Surse:

– The Verge: www.theverge.com

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact