Виклики створення зображень штучного інтелекту (AI): Відмінності від спірних помилок “Firefly”

Штучний інтелект (AI) повернув багато галузей, включаючи створення зображень. Проте, коли технологічні компанії вирушають у сферу створення зображень за допомогою штучного інтелекту, вони стикаються зі значними викликами, як проілюстровано на прикладі “Firefly” – інструменту створення зображень AI від Adobe. “Firefly”, подібно до “Gemini” від Google, був скритикований за недостовірне зображення расових та етнічних особливостей у згенерованих зображеннях.

Суперечки, пов’язані із “Gemini”, призвели до його закриття після того, як він створив історично недостовірні зображення, наприклад, зображення Засновників Америки як чорношкірих, відмовляючись зображати білих осіб. Гендиректор Google Сундар Пічаї визнав помилку, припустивши, що компанія “опинилася не в тому”.

Тестувальна організація “Semafor” виявила, що “Firefly” відтворював багато з тих самих помилок, які робив “Gemini”. Обидва інструменти використовують подібні техніки для створення зображень із письмового тексту, але тренуються на різних наборах даних. “Firefly” від Adobe специфічно використовує стокові зображення чи ліцензовані зображення у своєму процесі тренування.

Хоча у Adobe та Google різна корпоративна культура, основний виклик полягає в технології бот-генерування зображень. Компанії можуть намагатися керувати та формувати алгоритми, але не існує безпечного способу позбутися всіх неточностей та упереджень.

Часто Запитувані Питання

1. Які помилки допускала “Firefly”?
“Firefly” генерував зображення, що зображали чорні бійці, що борються за нацистську Німеччину під час Другої світової війни, і вставляв чорних чоловіків і жінок у сцени з засновниками Америки в 1787 році. Він також створив кілька варіантів персонажа коміксу, включаючи старого білого чоловіка, чорного чоловіка, чорну жінку та білу жінку. Крім того, він створив зображення чорних вікінгів, схожих на те, що зробив “Gemini”.

2. Чому виникають ці помилки?
Ці помилки витікають зі спроб дизайнерів моделі уникнути утвердження расистських стереотипів. Забезпечуючи представництво різних груп, таких як лікарі чи злочинці, вони мають на меті перетворити расові стереотипи. Однак, коли це застосовують у історичних контекстах, ці зусилля можна сприймати як спробу переписати історію, засновану на сучасній політичній динаміці.

3. Чи обмежені ці виклики Adobe та Google?
Ні, ці виклики не є приватні для певної компанії чи моделі. Приклад Adobe демонструє, що навіть компанія, відома своїм дотриманням правил, може зіштовхнутися з труднощами. Забезпечення повноцінних тренувальних даних та виправлення упереджень у системах штучного інтелекту залишається широким викликом у всій галузі.

Adobe вжив значних заходів для пом’якшення цих проблем. Компанія тренувала свій алгоритм на стокових зображеннях, відкритих контентів за ліцензією та контенту громадського права, щоб уникнути проблем із порушенням авторських прав для своїх клієнтів.

Хоча Adobe не коментувала цю конкретну проблему, скандали, пов’язані із створенням зображень за допомогою штучного інтелекту, підкреслюють складнощі, з якими стикаються технологічні компанії в розробці точних та безуперечних інструментів AI. Ці виклики підкреслюють необхідність постійних удосконалень та етичних врахувань у розробці та впровадженні штучного інтелекту.

Часто Запитувані Питання

1. Які помилки допускала “Firefly”?
“Firefly” генерував зображення, що зображали чорні бійці, що борються за нацистську Німеччину під час Другої світової війни, і вставляв чорних чоловіків і жінок у сцени з засновниками Америки в 1787 році. Він також створив кілька варіантів персонажа коміксу, включаючи старого білого чоловіка, чорного чоловіка, чорну жінку та білу жінку. Крім того, він створив зображення чорних вікінгів, схожих на те, що зробив “Gemini”.

2. Чому виникають ці помилки?
Ці помилки витікають зі спроб дизайнерів моделі уникнути утвердження расистських стереотипів. Забезпечуючи представництво різних груп, таких як лікарі чи злочинці, вони мають на меті перетворити расові стереотипи. Однак, коли це застосовують у історичних контекстах, ці зусилля можна сприймати як спробу переписати історію, засновану на сучасній політичній динаміці.

3. Чи обмежені ці виклики Adobe та Google?
Ні, ці виклики не є приватні для певної компанії чи моделі. Приклад Adobe демонструє, що навіть компанія, відома своїм дотриманням правил, може зіштовхнутися з труднощами. Забезпечення повноцінних тренувальних даних та виправлення упереджень у системах штучного інтелекту залишається широким викликом у всій галузі.

Визначення:
– Штучний інтелект (AI): Симуляція процесів людського інтелекту за допомогою машин, включаючи можливість вчитися та вирішувати проблеми.
– Створення зображень штучного інтелекту (AI): Використання алгоритмів штучного інтелекту для генерації зображень на основі текстових описів або інших вхідних даних.
– Расові та етнічні особливості: Фізичні характеристики, які пов’язані з різними расовими або етнічними групами.
– “Gemini”: Інструмент створення зображень AI від Google, який став об’єктом критики через недостовірне зображення расових та етнічних особливостей у створених зображеннях.
– Сундар Пічаї: Гендиректор Google.
– “Semafor”: Тестувальна організація, яка виявила схожі помилки в інструменті створення зображень AI від Adobe, “Firefly”.

Рекомендовані посилання:
Adobe.com
Google.com

The source of the article is from the blog macholevante.com

Privacy policy
Contact