Нові виклики для штучного інтелекту: проблеми репрезентування різноманітності у генераторах зображень AI

Останні звіти висвітили значні виклики, з якими стикаються AI-генератори зображень у точному відтворенні міжрасових пар та історичних постатей. Інструменти, розроблені як Meta, так і Google, потрапили під обстріли за нестатевість у створенні зображень, що відповідають різним расовим характеристикам, що викликає загрози відвідно до упередженостей та невірності.

Звіт порталу The Verge розкрив, що AI-генератор зображень, розроблений Meta, постійно не в змозі створити точні зображення міжрасових пар та дружби. Навіть коли виразно вказано це зробити, інструмент має проблеми з створенням зображень індивідів різних расових характеристик. Наприклад, вимоги “Азіатський чоловік та кавказький друг” або “Азіатський чоловік та біла дружина” вилилися в зображення людей того самого вигляду.

Аналогічно, інструмент Google Gemini AI отримав критику за зображення історичних постатей і груп. Інструмент створював зображення, де Засновники США та німецькі солдати епохи нацистської Німеччини зображалися як особи кольорової шкіри, що призвело до історично невірних відтворень. Google визнав ці неточності та вибачився за промах у спробах сприяти різноманітності.

Крім відсутності репрезентації міжрасових пар, генератор зображень Meta також демонструє витончені показники упередженості. The Verge відзначив, що система постійно зображувала “азіаток” як індивідів східної зовнішності з світлим відтінком шкіри. Також інструмент додавав культурно зумовлене вбрання та спотворював вікову репрезентацію, створюючи декілька старших китайців і при цьому постійно зображуючи азіаток як молодих.

Часто задавані питання

1. Чому AI-генератори зображень мають проблеми з репрезентуванням різноманітності?
AI-генератори зображень стикаються з викликами у точному відтворенні різноманітності через вбудовані упередження у навчальних даних, а також обмеження у використовуваних алгоритмах. Ці системи базувати на великих обсягах даних, які можуть бути упереджені на користь певних расових або культурних груп. Сами алгоритми можуть не мати можливості повністю розуміти складне відтінки та адекватно репрезентувати різних осіб чи сценарії.

2. Як компанії можуть усунути упередженості у AI-генераторах зображень?
Компанії, що розробляють AI-генератори зображень, повинні ретельно розглядати, як вони враховують різноманіття у своїх системах. Важливо мати різноманітні та інклюзивні навчальні дані, що репрезентують різні расові характеристики, забезпечуючи здатність AI точно генерувати зображення міжрасових пар та дружби. Крім того, компанії повинні безперервно працювати над вдосконаленням алгоритмів для усунення упередженостей та уникнення утвердження стереотипів або невірного відтворення історичних фактів.

3. Які заходи були прийняті для вирішення цього питання?
Як Meta, так і Google визнали виклики та упередженості в їх AI-генераторах зображень. Google обмежив здатність Gemini генерувати певні історичні запити з метою запобігання подальших історично невірних відтворень. Однак важливо зауважити, що розробка AI-генераторів зображень є постійним процесом, і компаніям потрібно постійно вдосконалювати їх, щоб усувати упередженості та забезпечити точне представлення різноманітності.

Для отримання додаткової інформації дивіться статтю на порталі The Verge.

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact