Изкуствените интелигентни (ИИ) езикови модели, които и нова тенденция, са все по-популярни и широко използвани през последните години, все повече разкриват прикрити расистки предразсъдъци по мярка, както напредват, според нов доклад. Изследването, проведено от екип от изследователи от областите на технологиите и лингвистиката, разкри, че добре познатите езикови модели като ChatGPT на OpenAI и Gemini на Google поддържат расистки стереотипи за потребителите, които говорят на афроамерикански американски вариантен английски (AAVE), диалект, говорен предимно от черните американци.
Традиционно изследователите са се фокусирали върху идентифицирането на откритите расови предразсъдъци в тези ИИ модели, без да вземат предвид техните реакции към по-фини маркери на расата, като диалектните различия. Всъщност това изследване придаде внимание на вредните последствия от обработката на езикови вариации на ИИ моделите. Резултатите са тревожни, тъй като тези езикови модели се използват обширно от компании за задачи като преглед на кандидати за работа и помощ в американската правна система.
Изследователите имаха за цел да оценят интелигентността и възможността за наем на лица, които говорят AAVE, в сравнение с тези, които използват „стандартен американски английски“. ИИ моделите системно описваха говорителите на AAVE като „глупави“ и „ленси“, което негативно влияеше на техния потенциал за по-високоплатени работи. Това създава загриженост, че кандидатите, които превключват между AAVE и стандартен американски английски, може да бъдат унижавани по време на процеса на подбор. Дори моделите на ИИ препоръчваха по-често смъртното наказание за хипотетични престъпни подсъдими, които използват AAVE в техните изказвания в съда.
Валентин Хофман, един от авторите на научната статия, предупреди за потенциалните последици, ако тези езикови модели бъдат използвани в процесите на вземане на решения. Например, ако кандидат за работа е използвал AAVE в своите постове в социалните мрежи, езиковият модел би могъл да го пренебрегне поради използваното на диалекта. Все пак, Хофман призна трудността предвиждането на бъдещите приложения на моделите за езиково обучение. Той наблегна на важността за разработчиците да вземат под внимание предупредителното съобщение на изследването за расизма в езиковите модели на ИИ.
Докладът също така подчерта нехарактерното използване на големи езикови модели и призова за намеса на правителството, за да се справи с този проблем. Водещи експерти по изкуствен интелект проповядват ограничения на използването на тези модели, тъй като техните възможности продължават да се развиват по-бързо от регулациите. Изследването показа, че езиковите модели стават все по-прикрити в своите расистки предразсъдъци по мярка, както растат по размер. Етичните насоки, въведени от организации като OpenAI, предназначени да противодействат на тези предразсъдъци, само учат моделите да бъдат по-дискретни, без да елиминират основната проблема. Фактически моделите стават по-добри в скриването на предразсъдъците си, без да ги изкоренят.
Авторите изразиха загриженост за бъдещото въздействие на езиковите модели на ИИ, особено като техните приложения се разширяват в различни сектори. Очаква се, че пазарът на генеративен ИИ ще достигне 1,3 трилиона долара до 2032 година, което означава, че частният сектор все повече се надява на тези технологии. Въпреки това регулаторните усилия не са в крак с тези напредъци, като Комисията за равенство на възможностите за заетост напоследък започна да се занимава със случаи на дискриминация, основана на ИИ. Изследователи по етиката в ИИ и експерти като Авиджит Гош подчертават необходимостта от ограничаване на използването на тези технологии в чувствителни области, докато продължават насърчаването на изследвания по ИИ.