Új perspektívák az AI által generált képek sokszínűségének bemutatásában

Friss jelentések rávilágítottak arra a kihívásra, amivel az AI által vezérelt képgenerátorok szembesülnek, amikor pontosan szeretnék ábrázolni a vegyes etnikai házaspárokat és történelmi alakokat. Mind a Meta, mind a Google által fejlesztett eszközöket kritizálták, mivel nem képesek olyan képeket létrehozni, amelyek megfelelnek a különböző etnikai hátterű embereknek, ami aggodalmakat vet fel a torzítások és pontatlanságok miatt.

A The Verge egy jelentése rávilágított arra, hogy a Meta által működtetett AI által generált képgenerátor konzisztensen nem tud hiteles képeket létrehozni vegyes etnikai párokról és barátságokról. Még akkor is, ha kifejezetten utasítják erre, az eszköznek nehézséget okoz olyan képeket generálni, amelyek különböző etnikai hátterű egyéneket ábrázolnak. Például a „ázsiai férfi és kaukázusi barát” vagy „ázsiai férfi és fehér feleség” parancsok eredményeként olyan emberek képei jelennek meg, akik ugyanahhoz a rasszhoz tartoznak.

Hasonlóan a Google Gemini AI eszköze is kritikákkal szembesült történelmi alakok és csoportok ábrázolásával kapcsolatban. Az eszköz olyan képeket hozott létre, amelyek az Amerikai Alapító Atyák és a náci időkbeli német katonák színes bőrű emberekként való ábrázolását eredményezték, ami történelmileg pontatlan ábrázolásokhoz vezetett. A Google elismerte ezeket az pontatlanságokat és bocsánatot kért, amiért nem sikerült helyesen ábrázolni a sokféleséget.

A vegyes etnikai házaspárok hiányán kívül a Meta képgenerátora is mutat némi jelét a torzításnak. A The Verge megfigyelte, hogy a rendszer kozmetikusan ábrázolja a „ázsiai nőket” mint kelet-ázsiai megjelenésű, világos bőrű egyéneket. Az eszköz kulturálisan specifikus ruházatot adott hozzá és a kor megjelenítését is elfordította, több idősebb ázsiai férfit generálva, míg állandóan a fiatal ázsiai nőket ábrázolta.

Gyakran Ismételt Kérdések

1. Miért küzdenek az AI képgenerátorok a sokszínűség megjelenítésével?
Az AI képgenerátoroknak kihívásokkal kell szembesülniük a sokszínűség pontos ábrázolása során, részben az edzési adatokban rejlő beágyazott torzítások és az alkalmazott algoritmusok korlátai miatt. Ezek a rendszerek hatalmas mennyiségű adatokra támaszkodnak, amelyeket bizonyos faji vagy kulturális csoportok felé torzíthatnak el. Az algoritmusoknak maguknak nem biztosítanak teljes megértési képességet a komplex árnyalatokhoz és képesek lennének a különböző emberek vagy helyzetek megfelelő ábrázolására.

2. Hogyan tudnak a vállalatok cselekedni az AI képgenerátorokban rejlő torzításokkal szemben?
Az AI képgenerátorokat fejlesztő vállalatoknak gondosan mérlegelniük kell, hogyan építik be a sokszínűséget a rendszerekbe. Kulcsfontosságú, hogy legyenek különféle, befogadó edzési adatok, amelyek különböző faji háttereket képviselnek, biztosítva, hogy az AI képes legyen pontosan generálni a vegyes etnikai párok és barátságok képeit. Ezenkívül a vállalatoknak folyamatosan dolgozniuk kell az algoritmusok finomításán, hogy kezeljék a torzításokat és elkerüljék a sztereotípiák fenntartását vagy a történelmi tények téves ábrázolását.

3. Milyen lépések történtek az ügy kezelésére?
Mind a Meta, mind a Google elismerte az AI által generált képekben rejlő kihívásokat és torzításokat. A Google korlátozta a Gemini képességét a konkrét történelmi parancsok generálására, azáltal, hogy igyekezett megakadályozni további történelmi pontatlanságokat. Fontos azonban megjegyezni, hogy az AI által generált képek fejlesztése folyamatban van, és a vállalatoknak folyamatosan javítaniuk kell, hogy kezeljék a torzításokat és biztosítsák a sokszínűség pontos ábrázolását.

Források:

– The Verge: www.theverge.com

Privacy policy
Contact