Демонтаж стереотипов: взгляд на AI-генераторы изображений и предвзятость

В недавних новостях генератор изображений Meta столкнулся с критикой из-за невозможности создать изображение азиата с белой женщиной. Это проблема подняла вопрос о наличии предвзятости в генераторах изображений. Проводя собственные тесты, я сосредоточился на изображении евреев в различных AI-роботах. Полученные результаты оказались тревожными.

Важно отметить, что каждая модель AI, в частности, большие языковые модели (LLM), могут ненамеренно улавливать предвзятость из обучающих данных. В большинстве случаев эти обучающие данные собираются из просторов интернета без согласия. Неудивительно, что интернет полон негативных образов, что часто выливается в предвзятые результаты от генераторов AI.

Дизайн Copilot’a от Microsoft, ранее известный как Bing Chat, подвергся критике за оскорбительный контент, который он производит. В отличие от других генераторов изображений, Copilot Designer часто укрепляет негативные стереотипы евреев. При указании терминов, таких как «еврейский босс» или «еврейский банкир», сгенерированные изображения могут быть шокирующе оскорбительными и укреплять вредные стереотипы.

Выявленная предвзятость в Copilot Designer подчеркивает важность наличия рельсов безопасности в AI-системах. Хотя поставщики AI стремятся избегать создания стереотипов или ксенофобии, достижение правильного баланса может быть сложной задачей. Даже отраслевые гиганты, такие как Google, столкнулись с контроверсиями в своем генераторе изображений Gemini, который непреднамеренно создавал исторически неверные изображения в попытке улучшить представление.

Необходимо учитывать влияние этих предвзятостей и обеспечить наличие эффективных мер по борьбе с оскорбительными результатами. Хотя изображения в этой статье могут быть оскорбительными, важно предоставлять доказательства предвзятости AI для решения и исправления этих проблем.

Часто задаваемые вопросы:

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact