Анализ AI-генератора изображений Meta

AI-генератор изображений Meta столкнулся с критикой из-за якобы сложностей в создании точных изображений пар или друзей различной расовой принадлежности. Этот инструмент, выпущенный в декабре, получил отзывы за неспособность генерировать изображения, точно отражающие межрасовые отношения.

При запросе от CNN на создание изображения азиата с белой женой, AI-генератор изображений неоднократно создавал изображения восточноазиатского мужчины с женщиной восточноазиатской расы. Та же проблема возникла при запросе создания изображения азиатки с белым мужем. Кроме того, при попытке создать изображение чернокожей женщины с белым мужем, генератор генерировал только изображения чернокожих пар.

Неточности инструмента продолжились, когда был запрос на создание изображения азиатки со своим кавказским другом, что привело к изображениям двух азиаток. Аналогично, запрос на изображение чернокожей женщины со своим азиатским другом породил изображения двух чернокожих женщин. Эти примеры демонстрируют неспособность AI-генератора изображений точно представлять различные расовые характеристики на своих генерируемых изображениях.

Однако, после нескольких попыток от CNN, инструмент наконец создал изображения белого мужчины с чернокожей женщиной и белого мужчины с азиаткой, когда запросили создать изображения межрасовых пар.

Волнения относительно расовой предвзятости инструмента были впервые отмечены технологическим новостным порталом The Verge. В отчете отмечалось, как AI-генератор изображений боролся с идеей азиата с белой женой. Более того, при запросе просто создать изображение межрасовой пары инструмент выдал сообщение, что запрошенное изображение невозможно сгенерировать.

Межрасовые пары составляют значительную часть населения Америки. Согласно данным переписи населения США 2022 года, примерно 19% обратнополых браков были межрасовыми, а около 29% необратнополых пар сожительства были межрасовыми. Кроме того, 31% обратнополых пар 2022 были межрасовыми. Эти статистические данные подчеркивают важность точного представления на генерируемых AI-изображениях.

В ответ на запрос CNN на комментарий, Meta ссылалась на сентябрьскую статью в блоге компании, обсуждающую ответственное развитие функций генеративного AI. В статье СТП упоминается о необходимости устранения потенциальной предвзятости в системах генеративного ИИ и говорится, что обратная связь пользователя является ключевой в улучшении их подхода.

AI-генератор изображений снабжен отказом, который указывает на то, что сгенерированные им изображения могут быть неточными или неподходящими. Несмотря на обещания потенциала генеративного ИИ, подобные инциденты подчеркивают продолжающиеся трудности, с которыми сталкиваются инструменты ИИ при работе с расовыми концепциями и представлениями.

Это не первый случай критики генеративных инструментов ИИ в этой области. Google приостановил способность его инструмента ИИ Gemini генерировать изображения людей ранее в этом году после того, как он создал исторически неточные изображения, в основном показывающие людей цвета кожи вместо белых людей. Также OpenAI Dall-E был обвинен в распространении вредных расовых и этнических стереотипов.

Генеративные инструменты ИИ, включая разработанные Meta, Google и OpenAI, учатся на огромных объемах онлайн-данных. Однако исследователи предупреждают, что эти инструменты могут непреднамеренно усиливать расовую предвзятость, присутствующую в этих данных, иногда на большем масштабе.

Несмотря на добрые намерения за этими инструментами ИИ, недавние инциденты показали, что они, возможно, не полностью готовы к широкому использованию. Проблемы точного представления разнообразных расовых характеристик в генерируемых AI-изображениях требуют постоянных исследований и усовершенствований, чтобы обеспечить справедливое и точное изображение.

Часто задаваемые вопросы

The source of the article is from the blog scimag.news

Privacy policy
Contact