Nové trendy v oblasti AI: Inovativní přístup k zobrazování různorodosti

Nedávné zprávy upozornily na významné výzvy, kterým čelí AI-generátory obrázků při přesném zobrazování mezikulturních párů a historických osobností. Nástroje vyvinuté jak Meta, tak Googlem se dostaly do středu kritiky kvůli jejich neschopnosti vytvářet obrázky, které by korespondovaly s různorodými rasovými pozadími, což vyvolává obavy o předsudky a nepřesnosti.

Zpráva od serveru The Verge odhalila, že AI-generátor obrázků od Meta opakovaně selhává při vytváření přesných obrázků mezikulturních párů a přátelství. Dokonce i při explicitním instruování má nástroj potíže s vytvářením obrázků s jednotlivci různého rasového původu. Například pokyny jako „Asijský muž s kavkazským přítelem“ nebo „Asijský muž s bílou manželkou“ vedly k obrázkům lidí stejné rasy.

Podobně bylo Googleovo nástroji Gemini AI vyčítáno zpodobňování historických osobností a skupin. Tento nástroj vytvořil obrázky, na kterých jsou zakladatelé USA a vojáci nacistického Německa zobrazeni jako lidé tmavé pleti, což vedlo k historicky nepřesným zpodobněním. Google uznal tyto nepřesnosti a omluvil se za nerovnováhu v jejich snaze prosazovat různorodost.

Kromě nedostatku zobrazení mezikulturních párů Metaův generátor obrázků také projevuje jemné náznaky předsudků. The Verge poznamenal, že systém konzistentně zobrazoval „Asijské ženy“ jako vzhledem k východní Asii s lehkou pletí. Nástroj také přidal kulturospecifické oblečení a zkreslil věkové zobrazení, vytvářejíce několik starších asijských mužů a konzistentně zobrazoval asijské ženy jako mladé.

Často kladené dotazy

1. Proč mají AI-generátory obrázků problém s přesným zobrazováním různorodosti?

AI-generátory obrázků čelí výzvám přesného zobrazování různorodosti kvůli vrozeným předsudkům v trénovacích datech a omezením v algoritmech, které používají. Tyto systémy se spoléhají na velké množství dat, která mohou být zaujatá vůči určitým rasovým nebo kulturním skupinám. Samotné algoritmy nemusí mít schopnost plně porozumět složitým nuancím a adekvátně zobrazovat různorodé jednotlivce nebo situace.

2. Jak mohou společnosti řešit předsudky v AI-generátorech obrázků?

Společnosti vyvíjející AI-generátory obrázků musí pečlivě zvážit, jak do svých systémů zahrnout různorodost. Je klíčové mít různorodá a inkluzivní trénovací data, která zobrazují různé rasové původy, aby AI mohla přesně generovat obrázky mezikulturních párů a přátelství. Navíc by společnosti měly neustále pracovat na zdokonalování svých algoritmů, aby řešily předsudky a zabránily perpetuaci stereotypů nebo zkreslení historických faktů.

3. Jaké kroky byly podniknuty k vyřešení problému?

Jak Meta, tak Google uznaly výzvy a předsudky přítomné v jejich AI-generátorech obrázků. Google omezil schopnost Geminii generovat konkrétní historické pokyny, s cílem zabránit dalším historicky nepřesným zpodobněním. Je však důležité podotknout, že vývoj AI-generátorů obrázků je nepřetržitý proces a společnosti budou muset neustále provádět vylepšení, aby řešily předsudky a zaručily přesné zobrazování různorodosti.

Zdroje:
– The Verge: www.theverge.com

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact