Модель штучного інтелекту Google Gemini: Уроки та майбутнє безпеки штучного інтелекту

Співзасновник Google Сергій Брін недавно згадав про проблемний запуск Gemini, штучного інтелектуального моделювання Google, визнаючи помилку компанії. Інцидент включав в себе інструмент генерації зображень Gemini, який зображував історичних постатей, включаючи пап та німецьких солдатів, у вигляді осіб кольорової раси. Ця суперечка викликала негативні коментарі та критику від таких осіб, як Ілон Маск, а також від голови Google Сундара Пічаї.

Корінь проблеми полягає в намірі Google створити модель штучного інтелекту без упереджень, яка вирішує проблеми упереджень, що існують у інших системах штучного інтелекту. Однак налаштування було неправильно виконане, що призвело до виробництва непристойних та невірних зображень. Gemini, подібно до аналогічних систем від конкурентів, включаючи OpenAI, поєднує в собі текстову модель “великого мовного моделю” (LLM) з генерацією зображень. LLM отримує ​​ретельні інструкції щодо переписування запитів користувачів, щоб спонукати генератор зображень. На жаль, інструкції Gemini інколи можуть бути відкриті користувачеві, це відомо як “ін’єкція запиту”.

Ін’єкція запиту розкрила, що інструкції Gemini включають вимогу рівно представляти різні гендери та етнічні групи. Однак це саме по собі не пояснює, чому система виробляє настільки більш якісні та помилкові результати. Сергій Брін виразив своє здивування тим, чому модель схилялася до певних упереджень, і визнав, що належні тестування були відсутні.

Експерти у галузі, такі як Дейм Венді Холл з Університету Саутгемптона, вважають, що Google поспішив у випуску моделі Gemini відповідь на успіхи OpenAI з їх власними моделями штучного інтелекту. Ця поспішка у конкурентній боротьбі скомпрометувала належне оцінювання та тестування технології. Холл підкреслює важливість розумного навчання моделей, щоб уникнути вироблення нелепих зображень, як у випадку Gemini з зображенням німецьких солдатів часів Другої світової війни.

Незважаючи на суперечку, яка оточує Gemini, цей інцидент може допомогти спрямувати дебати щодо безпеки штучного інтелекту на більш нагальні питання, такі як боротьба з глибоким фейковим. Він підкреслює потребу в комплексному тестуванні та оцінці моделей штучного інтелекту перед їх обширним випуском на велику шкалу. Очікування від генеративних моделей штучного інтелекту у плані творчості, точності та відображення соціальних норм високі. Однак, як зауважує Ендрю Рогоїскі з Університету Саррі, ми повинні пам’ятати, що ця технологія є відносно новою та постійно розвивається.

Незважаючи на те, що існують припущення щодо позиції Сундара Пічаї в Google, звинувачення тільки його не врахувало б більш широкої проблеми корпоративної культури та потреби у системному скиданні. У наслідок інциденту з Gemini важливо, щоб Google та інші технологічні компанії пріоритизували безпеку штучного інтелекту, як не лише для майбутніх поколінь технології, але й для вирішення нагальних ризиків та соціальних викликів, таких як зростання глибоких фейків.

The source of the article is from the blog maestropasta.cz

Privacy policy
Contact