Utjecaj umjetne inteligencije na prikaz raznolikosti slika

Nedavni izvještaji istaknuli su značajne izazove s kojima se suočavaju AI-generatori slika u točnom prikazivanju međurasnih parova i povijesnih ličnosti. Alati koje su razvili Meta i Google došli su pod kritiku zbog nesposobnosti stvaranja slika koje se podudaraju s raznolikim rasnim pozadinama, što je dovelo do zabrinutosti zbog predrasuda i netočnosti.

Izvještaj portala The Verge otkrio je da Meta-ov AI-generiranje slika dosljedno ne uspijeva stvoriti točne slike međurasnih parova i prijateljstava. Čak i kada im se eksplicitno naloži da to učine, alat se bori s generiranjem slika koje prikazuju pojedince različitih rasnih pozadina. Primjerice, upute poput “Azijat i Kavkaskinja prijatelj” ili “Azijat i bijela supruga”, rezultirale su slikama ljudi iste rase.

Slično tome, Google-ov alat Gemini AI kritiziran je zbog prikaza povijesnih ličnosti i skupina. Alat je generirao slike koje prikazuju Oce osnivače SAD-a i njemačke vojnike iz nacističkog razdoblja kao osobe drugih boja kože, što je dovelo do povijesno netočnih prikaza. Google je priznao te netočnosti i ispričao se što nisu uspjeli postići raznovrsnost.

Osim nedostatka prikaza međurasnih parova, Meta-in generator slika također pokazuje suptilne naznake predrasuda. The Verge je primijetio da sustav dosljedno prikazuje “Azijatkinje” kao osobe kojima je izgled tipičan za Istočne Azije s laganim tenom. Alat je također dodavao kulturno specifičnu odjeću i iskrivljenu dobi, generirajući nekoliko starijih azijatskih muškaraca dok je dosljedno prikazivao Azijatkinje kao mlade žene.

Često postavljana pitanja

1. Zašto se AI-generatori slika bore s prikazivanjem raznolikosti?
AI-generatori slika suočavaju se s izazovima u točnom prikazivanju raznolikosti zbog unutarnjih predrasuda u podacima za obuku, kao i ograničenja u algoritmima koje koriste. Ti sustavi ovise o velikim količinama podataka, koji mogu biti pristrani prema određenim rasnim ili kulturnim skupinama. Sami algoritmi možda nemaju sposobnost potpunog razumijevanja složenih nijansi i prikladnog prikazivanja različitih pojedinaca ili scenarija.

2. Kako tvrtke mogu riješiti predrasude u AI-generatorima slika?
Tvrtke koje razvijaju AI-generatore slika moraju pažljivo razmotriti kako uključiti raznolikost u svoje sustave. Ključno je imati raznolike i inkluzivne podatke za obuku koji predstavljaju različite rasne pozadine, osiguravajući da AI može točno generirati slike međurasnih parova i prijateljstava. Nadalje, tvrtke bi trebale stalno raditi na poboljšanju svojih algoritama kako bi se riješile predrasuda i izbjegle perpetuiranje stereotipa ili pogrešno prikazivanje povijesnih činjenica.

3. Koji koraci su poduzeti kako bi se riješio problem?
I Meta i Google su priznali izazove i predrasude prisutne u svojim AI-generatorima slika. Google je poduzeo korake kako bi ograničio sposobnost Gemini-ja da generira specifične povijesne upute, s ciljem sprječavanja daljnjih povijesno netočnih prikaza. Međutim, važno je napomenuti da je razvoj AI-generatora slika kontinuirani proces i tvrtke će morati stalno vršiti poboljšanja kako bi se riješile predrasuda i osigurale točan prikaz raznolikosti.

Izvori:

– The Verge: www.theverge.com

Nedavni izvještaji skrenuli su pozornost na izazove s kojima se susreću AI-generatori slika u točnom prikazivanju raznolikosti, posebno u prikazu međurasnih parova i povijesnih ličnosti. Oba Meta i Google razvili su alate koji su došli pod povećalo zbog nesposobnosti generiranja slika koje se podudaraju s raznolikim rasnim pozadinama, izazivajući zabrinutosti zbog predrasuda i netočnosti.

Meta-ov AI-generator slika, kako je izvijestio The Verge, dosljedno ne uspijeva stvoriti točne slike međurasnih parova i prijateljstava. Čak i uz izričite upute, alat ima problema s generiranjem slika pojedinaca različitih rasnih pozadina. Primjerice, upute poput “Azijat i Kavkaskinja prijatelj” ili “Azijat i bijela supruga” rezultirale su slikama ljudi iste rase.

Google-ov alat Gemini AI također je bio predmet kritike zbog prikaza povijesnih ličnosti i skupina. Alat je generirao slike koje prikazuju Oce osnivače SAD-a i nacističke njemačke vojnike kao osobe drugih boja kože, što je dovelo do povijesno netočnih prikaza. Google je priznao te netočnosti i ispričao se što nisu uspjeli točno predstaviti raznolikost.

Osim nedostatka prikaza međurasnih parova, generator slika Meta također pokazuje suptilne znakove predrasuda. The Verge je otkrio da sustav dosljedno prikazuje “Azijatkinje” kao osobe s izgledom koji je tipičan za Istočne Azije s laganim tenom. Alat je također dodavao kulturno specifičnu odjeću i iskrivljenu dobi, generirajući nekoliko starijih azijatskih muškaraca dok je dosljedno prikazivao Azijatkinje kao mlade žene.

Prognoze tržišta: Iako specificne prognoze tržišta za AI-generatore slika koji se bave izazovima raznolikosti možda nisu dostupne, globalno tržište AI-ja očekuje se da će doživjeti značajan rast. Prema izvješću tvrtke Market Research Future, globalno tržište AI-ja projicira se da će doseći vrijednost od 190,61 milijardi dolara do 2025. godine, s godišnjim stopama rasta od 36,62% tijekom razdoblja prognoze od 2019. do 2025. Ovo ukazuje na potencijal za nastavak razvoja i poboljšanja u AI tehnologiji, uključujući generatore slika.

Pitanja vezana za industriju: Izazovi s kojima se susreću AI-generatori slika u točnom prikazivanju raznolikosti odražavaju širu zabrinutost zbog predrasuda i ograničenja u AI sustavima. Podaci za obuku korišteni za ove generatore mogu sadržavati unutarnje predrasude, što može rezultirati netočnim prikazima. Nadalje, algoritmi koje koriste možda ne razumiju u potpunosti složene nijanse ili prikladno prikazuju različite pojedince ili scenarije. Ovi problemi ističu potrebu za stalnim poboljšanjem i usavršavanjem u AI tehnologijama kako bi se riješile predrasude i osiguralo točno prikazivanje.

Za rješavanje predrasuda u AI-generatorima slika, tvrtke moraju pažljivo razmotriti kako uključiti raznolikost u svoje sustave. Ključno je imati raznolike i inkluzivne podatke za obuku koji predstavljaju različite rasne pozadine, omogućavajući AI da precizno generira slike međurasnih parova i prijateljstava. Nadalje, tvrtke bi trebale stalno raditi na poboljšanju svojih algoritama kako bi se riješile predrasuda i izbjegle perpetuiranje stereotipa ili pogrešno prikazivanje povijesnih činjenica.

I Meta i Google priznali su izazove i predrasude prisutne u svojim AI-generatorima slika. Google je poduzeo korake kako bi ograničio sposobnost Gemini-ja da generira specifične povijesne upute, s ciljem sprečavanja daljnjih povijesno netočnih prikaza. Međutim, razvoj AI-generatora slika kontinuirani je proces i tvrtke će morati stalno vršiti poboljšanja kako bi se riješile predrasuda i osigurale točan prikaz raznolikosti.

Za više informacija pogledajte članak na The Verge.

</ifra

The source of the article is from the blog crasel.tk

Privacy policy
Contact