Kiemelt Alkalmazásai és Jövőbeli Kihívásai az AI Nyelvi Modelleknek

Az okos asszisztensek, chatbotok és a „big data” elemzésekben való alkalmazások jelentősen nőtt az elmúlt években. Azonban az egyik legújabb kutatás azt mutatja, hogy ezek a modellek rejtett rasszizmusra is képesek, ahogy fejlődnek. Egy technológiai és nyelvészeti területen dolgozó kutatócsoport által végzett vizsgálat kimutatta, hogy az OpenAI ChatGPT és a Google Gemini nevű jelentős nyelvi modellek továbbra is ápolják a rasszista sztereotípiákat az afroamerikai vernakuláris angolt (AAVE) használó felhasználókkal szemben, amelyet elsősorban feketék beszélnek.

Korábban a kutatók a nyelvi modellek nyilvánvaló rasszista elfogultságait vizsgálták, anélkül hogy figyelembe vették volna a rasszismus finomabb jeleit, mint például a nyelvi különbségek. Ez a tanulmány a nyelvi modellek nyelvi változatainak kezelésének káros hatásaira hívja fel a figyelmet, különösen az AAVE beszélők esetében. Ezeket a nyelvi modelleket széles körben alkalmazzák cégekben feladatokra, például munkavállalók kiválasztására és az Egyesült Államok jogrendszerének támogatására.

Az okos asszisztensek, chatbotok és a „big data” elemzésekben való alkalmazások jelentősen nőtt az elmúlt években. Azonban az egyik legújabb kutatás azt mutatja, hogy ezek a modellek rejtett rasszizmusra is képesek, ahogy fejlődnek. Egy technológiai és nyelvészeti területen dolgozó kutatócsoport által végzett vizsgálat kimutatta, hogy az OpenAI ChatGPT és a Google Gemini nevű jelentős nyelvi modellek továbbra is ápolják a rasszista sztereotípiákat az afroamerikai vernakuláris angolt (AAVE) használó felhasználókkal szemben, amelyet elsősorban feketék beszélnek.

Például, ha egy álláskereső a közösségi médiában használta az AAVE-t, az nyelvi modell hajlamos lehet kizárni őt a jelöltek közül a nyelvjárása miatt. Hoffman elismerte azonban, hogy nehéz előre jelezni a nyelvoktatási modellek jövőbeli felhasználási területeit. Hangsúlyozta a fejlesztők számára a tanulmány rasszizmusra való figyelmeztetésének fontosságát az AI nyelvi modellekkel kapcsolatban.

A jelentés továbbá rámutatott a nagyrészt szabályozatlan nagy nyelvi modellek használatára, és arra szólított fel, hogy a kormányzat összpontosítson erre a problémára. A vezető AI szakértők szabályozásra szólítottak fel az ilyen modellek használatával kapcsolatban, mivel képességeik továbbra is gyorsabban fejlődnek, mint a szabályozások. A tanulmány kimutatta, hogy a nyelvi modellek egyre inkább rejtve hordozzák rasszista elfogultságaikat, ahogy nő a méretük. Az OpenAI és hasonló szervezetek által bevezetett etikai irányelvek csak azt tanítják meg a modelleknek, hogy diszkrétebbek legyenek anélkül, hogy megoldanák a probléma alapjait. A modellek hatékonyabban elrejtik elfogultságaikat anélkül, hogy megszabadulnának tőlük.

Az írók aggodalmukat fejezték ki az AI nyelvi modellek jövőbeli hatásaival kapcsolatban, különösen, ahogy azok használatuk egyre inkább terjed különböző szektorokban. A generatív AI szegmensei várhatóan elérnék a 1,3 milliárd dollárt 2032-ig, ami jelezheti a magánszektor növekvő függését ezektől a technológiáktól. Azonban a szabályozási erőfeszítések nem tartottak lépést az előrehaladással, miközben az Egyenlő Foglalkoztatási Esély Bizottság csak most kezdett foglalkozni az AI alapú diszkriminációs ügyekkel. Az AI etikai kutatók és szakértők, mint Avijit Ghosh, hangsúlyozták az ilyen technológiák használatának korlátozásának szükségességét érzékeny területeken, miközben folytatják az AI kutatást.

GYIK

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact