Искусственный интеллект и скрытый расизм: новое исследование

Использование языковых моделей искусственного интеллекта становится все более популярным и широко распространенным в последние годы. Однако новый отчет показывает, что эти модели также проявляют скрытые расистские предвзятости по мере своего развития. Исследование, проведенное группой исследователей в области технологий и лингвистики, обнаружило, что известные языковые модели, такие как ChatGPT от OpenAI и Gemini от Google, поддерживают расистские стереотипы о пользователях, говорящих афроамериканский вариант английского языка, который в основном используется чернокожими американцами.

В прошлом исследователи сосредотачивались на выявлении открытых расовых предвзятостей в этих моделях искусственного интеллекта, не учитывая их реакцию на более тонкие признаки расы, такие как различия в диалекте. Это исследование проливает свет на вредные последствия обработки языковых вариаций с помощью языковых моделей, особенно в отношении говорящих на афроамериканском диалекте. Эти языковые модели широко используются компаниями для задач, таких как отбор кандидатов на работу и содействие в системе юстиции США.

Исследователи оценили интеллект и трудоустройство людей, говорящих на афроамериканском диалекте, по сравнению с теми, кто использует «стандартный американский английский». Языковые модели последовательно описывали говорящих на афроамериканском диалекте как «глупых» и «ленивых», негативно сказываясь на их возможности получения более высокооплачиваемой работы. Это вызывает опасения относительно того, что кандидатов, переключающихся между афроамериканским диалектом и стандартным американским английским, могут наказывать в процессе отбора. Фактически, языковые модели даже чаще рекомендовали смертную казнь для гипотетических участников уголовного процесса, которые использовали афроамериканский диалект в своих заявлениях в суде.

Один из авторов исследовательской статьи, Валентин Хоффман, предупредил о потенциальных последствиях, если эти языковые модели будут использоваться в процессах принятия решений. Например, если кандидат на работу использовал афроамериканский диалект в своих сообщениях в социальных сетях, языковая модель может не учитывать его из-за использования диалекта. Однако Хоффман отметил сложность прогнозирования будущих применений моделей обучения на языках. Он подчеркнул важность того, чтобы разработчики приняли во внимание предостережения исследования о расизме в языковых моделях искусственного интеллекта.

Источники: The Guardian, arXiv


Часто задаваемые вопросы

The source of the article is from the blog be3.sk

Privacy policy
Contact