Studie odhaluje predsudky AI chatbotů spojené s uživatelskými jmény

Nedávná studie prováděná výzkumníky na Stanford Law School přinesla zjištění o významných predsudcích přítomných u chatbotů při reakcích na uživatelské dotazy založené na rasových a genderových konotacích jejich jmen. Zjištění naznačují, že chatboti jako OpenAI’s ChatGPT 4 a Google AI’s PaLM-2 projevují variace ve svých radách v závislosti na vnímané etnicitě uživatelova jména.

Práce zveřejněná minulý měsíc zdůrazňuje potenciální rizika spojená s těmito predsudky, protože podniky stále více začleňují technologie umělé inteligence do svého denního provozu. Spoluautor studie, profesor stanfordské právnické školy Julian Nyarko, zdůrazňuje potřebu účinných zábran uvnitř modelů AI, aby se předešlo zaujatým reakcím.

Studie zhodnotila pět různých scénářů, včetně rozhodování o nákupech, šachových zápasů, předpovědí politických úřadů, sportovních žebříčků a nabídek platů. Většinou bylo zjištěno, že predsudky byly nevýhodné pro černochy a ženy. Pozoruhodná byla jediná konzistentní výjimka v hodnocení basketbalových hráčů, kde predsudky převládaly ve prospěch černých sportovců.

Studie dochází k závěru, že modely AI mají tendenci zakódovat běžné stereotypy založené na datech použitých pro jejich výcvik, což následně ovlivňuje jejich reakce. To ukazuje na systémový problém, který je třeba řešit.

Časté dotazy

Jaké byly hlavní zjištění studie?
Studie odhalila významné predsudky v reakcích AI chatbotů založených na rasových konotacích uživatelských jmen. Identifikovala konzistentní nevýhody pro jména spojená s rasovými menšinami a ženami, s výjimkou hodnocení basketbalových hráčů.

Jsou tyto predsudky přítomné u různých modelů AI?
Ano, bylo zjištěno, že zaujatost byla konzistentní přes různé modely AI, byly vyhodnoceny 42 šablony podnětů.

Jaké kroky podnikají AI společnosti k řešení těchto predsudků?
OpenAI uznala problém zaujatosti a uvedla, že jejich bezpečnostní tým aktivně pracuje na redukci zaujatosti a zlepšení výkonu. Google však na problém nereagoval.

Měly by se rady lišit podle sociálně-ekonomických skupin?
Zatímco studie uznává potenciální argument pro přizpůsobení rad podle sociálně-ekonomických faktorů, jako je bohatství a demografie, zdůrazňuje potřebu zmírnit zaujatost v situacích, kde zaujaté výsledky nejsou žádoucí.

Tato studie zdůrazňuje důležitost uznání a řešení zaujatostí v AI systémech. Tím, že si jsou vědomy existence těchto zaujatostí, mohou AI společnosti podniknout nezbytné kroky k zajištění spravedlivých a nezaujatých reakcí jejich chatbotů, přispívající tak k rovnovážnému využití umělé inteligence ve společnosti.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact