Великі технологічні корпорації наразі лобіюють Європейський Союз, щоб він прийняв більш м’який підхід до регуляції штучного інтелекту, викликаний побоюваннями щодо значних штрафів. У травні ЄС досяг історичної угоди, яка встановила комплексні регуляції для ШІ після тривалих переговорів між різними політичними фракціями.
Однак, поки відповідні практичні кодекси не будуть затверджені, існує невизначеність щодо виконання правил щодо систем ШІ, таких як ChatGPT від OpenAI, що може піддати компанії ризику потенційних позовів та значних штрафів. ЄС запросив допомогу від бізнесу, академіків та інших учасників у розробці цих кодексів, отримавши майже 1,000 пропозицій, що є надзвичайно високим рівнем відгуку.
Хоча кодекс ШІ не буде мати юридичної обов’язковості після введення в дію наступного року, він надасть компаніям контрольний список для дотримання вимог. Ігнорування цього кодексу може призвести до юридичних ускладнень для тих, хто стверджує про дотримання регуляцій, але не дотримується викладених практик. Продовжують існувати побоювання щодо порушення авторських прав, особливо стосовно того, як такі компанії, як OpenAI, використовують бестселери і зображення для навчання своїх моделей без дозволу.
Згідно з новим законом, компанії повинні прозоро розкривати дані, використані для навчання їх моделей ШІ, що дозволяє творцям контенту вимагати компенсацію, якщо їх роботи експлуатуються. Лідери галузі, такі як представники Google та Amazon, прагнуть сприяти цій ініціативі, водночас захищаючи успішне впровадження регуляторної структури. Баланс між забезпеченням прозорості та сприянням інноваціям залишається спірним питанням у регуляторних колах ЄС.
Технологічні гіганти виступають за гнучкі регуляції ШІ в умовах нагляду ЄС
Оскільки розмови про штучний інтелект (ШІ) та його вплив на суспільство стають все більш голосними, великі технологічні корпорації активізують свої лобістські зусилля в Європейському Союзі (ЄС). Їх мета — сформувати регуляторне середовище, яке буде сприятливим для інновацій, в той же час надаючи достатні рекомендації для етичних практик. Ця трансформація відбувається на фоні зростаючого контролю над системами ШІ, такими як ChatGPT від OpenAI, які викликають суперечки щодо безпеки, підзвітності та справедливості.
Ключові питання та відповіді
1. Які специфічні заходи лобіюють технологічні компанії в регуляціях ШІ?
– Технологічні гіганти виступають за положення, що підкреслюють саморегуляцію та ризик-орієнтовані рамки. Це передбачає спонукання ЄС класифікувати системи ШІ відповідно до їх потенційного рівня ризику, врешті-решт дозволяючи органічні методи дотримання вимог, пристосовані до нюансів різних застосувань.
2. Які проблеми пов’язані з регуляцією ШІ?
– Основні проблеми включають визначення меж використання ШІ, вирішення питань щодо зловживання даними та захист інтелектуальної власності. Крім того, існують побоювання щодо введення надмірно суворих регуляцій, які можуть стримувати інновації або змусити компанії переїхати до більш м’яких юрисдикцій.
3. Які суперечки виникають стосовно ШІ та порушення авторських прав?
– Значна суперечка стосується використання матеріалів, що мають авторські права, у навчанні моделей ШІ. Такі компанії, як OpenAI та Google, піддаються критиці за можливе порушення авторських прав, використовуючи великі набори даних, які можуть містити захищені авторським правом твори без отримання необхідних дозволів.
Переваги лобіювання технологічних гігантів за м’які регуляції
1. Сприяння інноваціям:
– Гнучкіша регуляторна структура може стимулювати інноваційне використання технологій ШІ, що дозволяє бізнесу експериментувати з новими ідеями без надмірного страху перед штрафами.
2. Швидкість впровадження:
– М’якші регуляції можуть призвести до швидшої адаптації та інтеграції технологій ШІ в різних секторах, в кінцевому підсумку приносячи користь як споживачам, так і підприємствам.
3. Глобальна конкурентоспроможність:
– Створюючи середовище, сприятливе для зростання технологій, ЄС може зберегти провідні таланти та сприяти розвитку стартапів, таким чином зберігаючи свою конкурентоспроможність на глобальному рівні.
Недоліки підходів до м’якої регуляції
1. Ризики для безпеки громадськості:
– Негнучкі регуляції можуть поставити швидкість вище за безпеку, що призведе до впровадження систем ШІ, які не пройшли ретельної перевірки на потенційні ризики, включаючи упередження або шкідливі наслідки.
2. Підрив підзвітності:
– Регуляторна структура, що не має суворих вимог, може ускладнити установлення відповідальності серед компаній, що призведе до проблем з притягненням організацій до відповідальності за негативні наслідки, що виникають внаслідок впровадження ШІ.
3. Потенційна експлуатація творчих працівників:
– Без чітких правил щодо авторських прав та використання даних існує ризик, що творці контенту, художники та автори можуть продовжувати бути експлуатованими без достатньої компенсації або визнання.
Висновок
Коли ЄС завершить розробку своїх комплексних регуляцій щодо ШІ, баланс між сприянням інноваціям і забезпеченням безпеки громадськості стає все більш складним. Тиск технологічних гігантів за м’які регуляції підкреслює триваючу дискусію про те, як найкраще орієнтуватися в швидко змінюваному ландшафті штучного інтелекту. Учасники повинні залишатися пильними, вирішуючи як можливості, так і ризики, пов’язані з розвитком ШІ.
Для отримання додаткової інформації щодо цієї теми відвідайте Офіційний сайт ЄС та TechCrunch.