Инновации в создании изображений: Преодоление вызовов представления разнообразия

Недавние отчеты привлекли внимание к значительным вызовам, с которыми сталкиваются AI-генераторы изображений в точном представлении разнообразия, особенно в изображении межрасовых пар и исторических личностей. Технологии, разработанные как Meta, так и Google, попали под обстрел за неспособность создавать изображения, соответствующие разнообразным расовым фонам, что вызывает беспокойство о предвзятости и неточностях.

Отчет от The Verge показал, что AI-генератор изображений Meta постоянно не удается создавать точные изображения межрасовых пар и дружбы. Даже если явно указать на этом, инструменту тяжело создавать изображения с участием людей из разных расовых фонов. Например, запросы вроде «азиат и кавказский друг» или «азиат и жена белого цвета» приводили к изображениям людей одной расы.

Точно так же, инструмент Gemini AI от Google попал под критику за изображение исторических фигур и групп. Инструмент создавал изображения, изображающие Основателей США и солдат нацистской эпохи как людей цвета кожи, что приводило к исторически недостоверным изображениям. Google признал эти неточности и извинился за промахи в их попытках продвигать разнообразие.

Помимо отсутствия представления межрасовых пар, генератор изображений Meta также проявляет тонкие признаки предвзятости. The Verge отметил, что система постоянно изображает «азиатских женщин» как выглядящих как Восточные азиатки с светлым тоном кожи. Инструмент также добавлял культурно специфическую одежду и исказлял возрастное представление, создавая несколько старших азиатских мужчин, в то время как постоянно изображал азиаток молодыми.

### Часто задаваемые вопросы

1. Почему AI-генераторы изображений испытывают сложности с представлением разнообразия?
AI-генераторы изображений сталкиваются с вызовами в точном представлении разнообразия из-за врожденных предвзятостей в обучающих данных, а также ограничений в используемых алгоритмах. Эти системы полагаются на огромные объемы данных, которые могут быть предвзяты в отношении определенных расовых или культурных групп. Алгоритмы сами по себе могут не иметь возможности полностью понять сложные нюансы и адекватно представлять разнообразных людей или сценарии.

2. Как компании могут устранить предвзятости в AI-генераторах изображений?
Компании, разрабатывающие AI-генераторы изображений, должны тщательно обдумывать, как они внедряют разнообразие в свои системы. Крайне важно иметь разнообразные и включительные обучающие данные, которые представляют различные расовые фоны, обеспечивая возможность AI точно создавать изображения межрасовых пар и дружбы. Более того, компании должны постоянно работать над совершенствованием своих алгоритмов, чтобы устранить предвзятости и избежать утверждения стереотипов или недостоверного представления исторических фактов.

3. Какие шаги были предприняты для решения проблемы?
Как Meta, так и Google признали вызовы и предвзятости, присутствующие в их AI-генераторах изображений. Google предпринял шаги по ограничению способности Gemini создавать конкретные исторические предложения, стремясь предотвратить дальнейшие исторически недостоверные изображения. Однако важно отметить, что разработка AI-генераторов изображений — это непрерывный процесс, и компаниям придется постоянно вносить улучшения для решения предвзятостей и обеспечения точного представления разнообразия.

Источники:

— The Verge: [www.theverge.com](https://www.theverge.com)

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact