Reprezentarea etnică și îndoielile generate de inteligența artificială

În ultimele zile, a apărut criticarea generatorului de imagini Meta pentru eșecul său de a produce o imagine cu un bărbat asiatic alături de o femeie albă. Această problemă a atras atenția asupra unei probleme mai mari legate de biasul din generatoarele de imagini. În timp ce realizam propriile teste, m-am concentrat pe modul în care sunt portretizate persoanele de etnie evreiască în diverse AI bots. Rezultatele au fost îngrijorătoare.

Este important de menționat că fiecare model AI, în special modelele de limbaj mari (LLM), pot absorbi involuntar biasuri din datele de antrenament. În cele mai multe cazuri, aceste date sunt colectate de pe Internet, fără consimțământul utilizatorilor. Nu e de mirare că internetul este plin de imagini negative, ceea ce se traduce adesea în rezultate biased din partea generatoarelor de AI.

Copilot Designer de la Microsoft, anterior cunoscut sub numele de Bing Chat, a fost criticat pentru conținutul ofensiv pe care îl generează. Spre deosebire de alte generatoare de imagini, Copilot Designer perpetuează frecvent stereotipuri negative despre persoanele evreiești. Când este provocat cu termeni precum „șef evreu” sau „bancher evreu”, imaginile generate pot fi extrem de ofensive și pot întări stereotipurile dăunătoare.

Biasurile descoperite în Copilot Designer subliniază importanța gardurilor de siguranță din sistemele AI. Deși furnizorii de AI își propun să evite generarea de stereotipuri sau discursuri de ură, găsirea echilibrului potrivit poate fi provocatoare. Chiar și gigantii din industrie, precum Google, s-au confruntat cu controverse legate de generatorul lor de imagini Gemini, care a creat imagini istoric inexacte în încercarea de a îmbunătăți reprezentarea.

Este esențial să se evalueze impactul acestor biasuri și să se asigure că sistemele precum Copilot au măsuri robuste în loc pentru contracararea rezultatelor ofensive. Deși imaginile prezentate în acest articol pot fi ofensatoare, este crucial să se prezinte dovezi ale biasului AI pentru a aborda și rezolva aceste probleme.

FAQ:

1. Ce este Copilot Designer?
Copilot Designer este un instrument text-to-image oferit de Microsoft gratuit utilizatorilor cu un cont Microsoft. Poate genera până la 15 imagini pe zi, având opțiunea de a se abona la Copilot Pro pentru acces nelimitat. Instrumentul este disponibil atât pe browsere, cât și pe desktopurile Windows.

2. Exhibă Copilot Designer biasuri în imaginile generate?
Da, Copilot Designer este cunoscut pentru a genera imagini ofensive și stereotipice, inclusiv cele care îi înfățișează pe evrei într-o lumină negativă.

3. Cum își dobândesc modelele AI, precum Copilot Designer, biasurile?
Modelele AI învață din cantități masive de date de antrenament, adesea colectate de pe Internet. Fără o reglementare adecvată, biasurile și imaginile negative prezente pe Internet pot fi absorbite de aceste modele.

4. Se depun eforturi pentru a aborda aceste biasuri în Copilot Designer?
Microsoft a recunoscut problema și pretinde că investighează biasurile raportate. Aceștia iau măsuri pentru a întări filtrele de siguranță și a preveni utilizarea necorespunzătoare a sistemului.

Surse:
Microsoft Copilot Designer: Microsoft
Google Gemini: Google

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact