AI Language Models and Bias: A Fresh Perspective

Umělá inteligence (AI) se stává stále populárnější a široce využívanou v posledních letech. Nová zpráva však odhaluje, že tyto modely také projevují skryté rasistické zkreslení s postupem času. Studie provedená týmem výzkumníků z technologických a jazykových oborů zjistila, že známé jazykové modely, jako je OpenAI ChatGPT a Google Gemini, perpetuují rasistické stereotypy o uživatelích, kteří mluví africkoamerickým výlučným anglickým jazykem (AAVE), dialektem primárně používaným černými Američany.

V minulosti se výzkumníci zaměřovali na identifikaci otevřených rasových zkreslení v těchto AI modelech, aniž by brali v úvahu jejich reakce na jemnější známky rasových rozdílů, jako jsou dialektické rozdíly. Tato studie přináší nové poznatky o škodlivých dopadech modelů AI při zacházení s jazykovými variacemi, zejména pokud jde o mluvčí AAVE. Tyto jazykové modely jsou široce využívány společnostmi pro úkoly jako je třídění uchazečů o zaměstnání a asistence v americkém právním systému.

Výzkumníci posoudili inteligenci a zaměstnatelnost jedinců mluvících AAVE ve srovnání s těmi, kteří používají „standardní americkou angličtinu“. AI modely konzistentně popisovaly mluvčí AAVE jako „hloupé“ a „líné“, což negativně ovlivňovalo jejich potenciál pro vyšší platené zaměstnání. To vyvolává obavy, že kandidáti, kteří přepínají mezi AAVE a standardní americkou angličtinou, mohou být trestáni během výběrového procesu. Vědci dokonce zjistili, že AI modely ve studii častěji doporučovaly trest smrti pro hypotetické obžalované, kteří použili AAVE ve svých prohlášeních ve soudní síni.

Valentin Hoffman, jeden z autorů výzkumné práce, varoval před možnými následky, pokud by byly tyto jazykové modely využívány v rozhodovacích procesech. Například, pokud by uchazeč o práci použil AAVE ve svých příspěvcích na sociálních sítích, jazykový model by mohl být tento příspěvek ignorovat kvůli dialektu. Hoffman však uznal obtížnost předvídání budoucích aplikací modelů učení jazyka. Důrazně zdůraznil důležitost toho, aby vývojáři zohlednili opatrčí zprávy o rasismu v AI jazykových modelech.

Zpráva také upozornila na široce neupravené využití rozsáhlých jazykových modelů a vyzvala k zásahu vlády, aby se tímto problémem zabývala. Vedoucí odborníci na AI se stavěli za omezení použití těchto modelů, protože jejich schopnosti se neustále vyvíjejí rychleji než regulační mechanismy. Studie ukázala, že jazykové modely se stávají stále skrytějšími ve svých rasových zkresleních s jejich nárůstem. Etické směrnice, které organizace jako OpenAI implementují pro potlačení těchto zkreslení, jen učí modely být diskrétnější, aniž by vyřešili základní problém. V důsledku toho se modely naučí lépe skrývat svá zkreslení bez jejich odnaučení.

Autoři vyjádřili obavy o budoucí dopad AI jazykových modelů, zejména pokud se jejich využití rozšiřuje v různých odvětvích. Rozrůstající se trh pro generativní AI se očekává, že dosáhne hodnoty 1,3 bilionu dolarů do roku 2032, což znamená rostoucí závislost soukromého sektoru na těchto technologiích. Avšak regulační úsilí nedrží krok s těmito pokroky, ať už počínaje komisí pro rovné příležitosti v zaměstnání, která teprve nedávno začala řešit případy diskriminace založené na AI. Výzkumníci etiky AI a odborníci jako Avijit Ghosh zdůrazňují potřebu omezit využití těchto technologií v citlivých oblastech a zároveň pokračovat v rozvoji výzkumu AI.

Často kladené dotazy

The source of the article is from the blog combopop.com.br

Privacy policy
Contact