Глобальні технологічні титани погодилися з наданням стратегії невідкладної зупинки штучного інтелекту.

Великі технологічні компанії та уряди об’єднуються, щоб встановити заходи безпеки для штучного інтелекту. Гранди в галузі технологій, зокрема Microsoft, OpenAI, Anthropic та ще тринадцять компаній, дійшли згоди з приводу нової політичної рамки. Якщо під час розробки нових моделей ШІ виникне ситуація, яка вийде з-під контролю, вони узгодили зупинити прогрес з метою запобігання можливих катастрофічних сценаріїв, схожих на події у реальному житті, подібні до “Термінатора”.

Узгоджені зусилля для зменшення ризиків, пов’язаних з ШІ. Ця угода була досягнута в Сеулі, де організації та представники уряду зібралися для вирішення свого траєкторії щодо розвитку ШІ. Угода зосереджується на “кнопці вимкнення” – обіцянці припинити розвиток своїх передових моделей ШІ, якщо вони перетнуть попередньо визначені порогові значення ризику.

Відсутність конкретних дій та ясності продовжується. Незважаючи на угоду, спостерігається помітна відсутність конкретних дій чи встановленого визначення “небезпечного” порогу, який говорив би за активацію кнопки вимкнення. Це ставить під сумнів дію та ефективність політики.

За звітами, зібраними виданням Yahoo News, екстремальні випадки побудили організації не випускати нові моделі ШІ, якщо заходи контролю є недостатніми. Такі гравці, як Amazon, Google та Samsung, також підписали на підтримку ініціативи, що свідчить про широку згоду у галузі.

Обговорення з експертами в галузі штучного інтелекту, такі, як ті, про які повідомляє Unboxholics, підкреслюють значні ризики, що призвели до цього узгодження. Цей крок віддзеркалює прогнози відомого вченого Геоффрі Гінтон, який попереджав про можливість заміни ШІ людей у різних сферах праці, що сигналізує про глибоку зміну в динаміці робочої сили.

Важливі питання та виклики, пов’язані зі стратегіями негайного спіймання ШІ:

1. Визначення порогів “небезпеки”: Головний виклик полягає у встановленні точних параметрів, які визначають, коли ШІ стає занадто ризикованим для продовження розвитку. Без чітких визначень будь-яка угода про зупинку може бути суб’єктивною та підлягати тлумаченню.

2. Виконавчість: Забезпечення того, щоб усі сторони додержувалися угоди про зупинку, складне завдання, особливо з урахуванням відсутності глобальних регуляторних рамок спеціально для ШІ.

3. Технічні можливості: Сама можливість кнопки вимкнення є технічним питанням, яке потребує надійних механізмів, вбудованих у системи ШІ, що є складним завданням.

4. Конкурентний тиск: Компанії можуть бути неохочими припинити або сповільнити дослідження, якщо конкуренти цього не роблять, що може призвести до потенційної гонки озброєнь у розвитку ШІ.

5. Конфіденційність та безпека даних: Розширені системи ШІ можуть обробляти великі обсяги даних, а їх раптове вимкнення може породити загрози для конфіденційності та безпеки даних.

Переваги угоди про зупинку штучного інтелекту:
Підвищена безпека: Вона забезпечує засіб захисту від непередбачених наслідків складних систем ШІ.
Довіра громадськості: Така угода може збільшити довіру громадськості до технологій штучного інтелекту та організацій, що їх розвивають.
Спільна відповідальність: Це сприяє культурі відповідальності та співпраці між технологічними компаніями.

Недоліки угоди про зупинку штучного інтелекту:
Гальмування інновацій: Надмірно обережні чи неоднозначні вказівки можуть зашкодити інноваціям.
Конкурентні недоліки: Організації, які дотримуються угоди, можуть поступатися тим, хто не дотримується, особливо в регіонах з різними регуляторними рамками або рівнями виконавчості.
Складне впровадження: Практичні аспекти реалізації та управління кнопкою вимкнення можуть бути складними та вимагати великих витрат.

Хоча існують запропоновані переваги та помітні виклики, цей розвиток свідчить про зміну поглядів технологічної галузі на свою відповідальність у формуванні майбутнього ШІ. Неминучість розвитку високорівневому штучного інтелекту змушує розглядати заходи забезпечення захисту від небезпечних наслідків. Надалі важливо проводити дослідження та діалог між зацікавленими сторонами для вдосконалення та ефективного застосування таких рамок.

Для тих, хто зацікавлений у більш широкому контексті цієї угоди, авторитетні джерела та обговорення про політику та безпеку ШІ можна знайти на основних веб-сайтах організацій, таких як Асоціація просування штучного інтелекту (AAAI) на AAAI та Інститут майбутнього життя на Інститут майбутнього життя. Важливо перевіряти ці ресурси, щоб бути проінформованим про нові розвитки, політику та обговорення ШІ.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact