Глобальні технологічні титани погоджуються щодо стратегії негайного припинення штучного інтелекту.

Великі технологічні компанії та уряди об’єднуються, щоб створити заходи безпеки для штучного інтелекту. Лідери у галузі технологій, у тому числі Microsoft, OpenAI, Anthropic та ще тринадцять компаній, прийшли до консенсусу щодо нового політичного каркасу. У випадку виникнення небезпечної ситуації під час розробки нових моделей ШІ, вони прийняли рішення зупинити прогрес для запобігання можливим катастрофічним сценаріям подібним до подій з реального життя, схожих на події з фільму “Термінатор”.

Узгоджені зусилля зменшити ризики ШІ. Цей договір був досягнутий в Сеулі, де організації та представники уряду зібралися, щоб визначити свій шлях у розвитку ШІ. Угода спрямована на “вимикач” – зобов’язання припинити розвиток їх найпередовженіших моделей ШІ, якщо вони перетнуть передбачені ризики.

Відсутність конкретних дій та ясності залишається. Незважаючи на угоду, помітний відсутній конкретних дій чи визначення “небезпечного” порога, який активує вимикач. Це ставить під сумнів реалізовність та ефективність політики.

За звітами, зібраними Yahoo News, екстремальні випадки змусили організації не випускати нові моделі ШІ, якщо заходи контролю будуть непосильними. Великі гравці, такі як Amazon, Google та Samsung, також підписалися на підтримку ініціативи, сигналізуючи про розповсюдження консенсусу у галузі.

Дискусії з експертами з області штучного інтелекту, які були опубліковані на Unboxholics, підкреслюють значні ризики, що спонукали до цього об’єднаного рішення. Цей крок відображає прогнози відомого академіка Геофрі Хінтон, який попередив про потенціал ШІ замінити людей в різних галузах праці та сигналує глибоке зміщення у динаміці робочої сили.

Важливі питання та виклики щодо стратегій надзвичайного припинення штучного інтелекту:

1. Визначення “небезпечних” порогів: Одним з ключових викликів є встановлення точних параметрів, які визначають, коли ШІ стає занадто ризикованою для продовження розробки. Без чітких визначень будь-яке рішення про зупинку може бути суб’єктивним та піддається інтерпретації.

2. Виконаність: Забезпечення того, щоб всі сторони дотримувалися угоди про зупинку, є проблематичним, особливо з огляду на відсутність глобальних регулятивних рамок специфічно для ШІ.

3. Технічна можливість: Реальність самого вимикача є технічною проблемою, яка вимагає надійних механізмів, які вбудовуються у системи ШІ, що є складним завданням.

4. Конкурентний тиск: Компанії можуть бути неохочими зупиняти або сповільнювати дослідження, якщо їх конкуренти цього не роблять, що може призвести до потенційної гонки у в галузі розвитку ШІ.

5. Приватність та безпека даних: Продумані системи ШІ можуть обробляти величезні обсяги даних, і їх раптове вимкнення може призвести до проблем з приватністю та безпекою даних.

Переваги угоди про зупинку ШІ:
Більша безпека: Вона забезпечує захист від непередбачених наслідків вищезазначених ШІ систем.
Довіра громади: Така угода може збільшити довіру громадськості до технологій ШІ та суб’єктів, які їх розробляють.
Спільна відповідальність: Вона сприяє культурі відповідальності та співпраці між технологічними компаніями.

Недоліки угоди про зупинку ШІ:
Загроза інноваціям: Надмірно обережні або неоднозначні керівні принципи можуть пригнічувати інновації.
Конкурентні недоліки: Суб’єкти, які дотримуються угоди, можуть відставати від тих, хто не робить цього, особливо в регіонах з різними регуляторними рамками чи рівнями виконання.
Важка реалізація: Практичні аспекти реалізації та управління вимикачем можуть бути складними та вимагати значних ресурсів.

Хоча існують запропоновані переваги та помітні виклики, цей розвиток вказує на зміну способу, яким галузь технологій розглядає свою відповідальність у формуванні майбутнього ШІ. Неминучість розвиненого ШІ підтримує необхідність захисних заходів для захисту від негативних наслідків. Для того, щоб бути в курсі нових розробок, політики та дискусій про ШІ рекомендується відвідати головні веб-сайти організацій, таких як Association for the Advancement of Artificial Intelligence (AAAI) на AAAI та Future of Life Institute на Future of Life Institute.

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact