EU намерена ввести революционную регулирующую каркасную программу по искусственному интеллекту в июне

Европейский союз готовится к принятию значимого законодательного акта об искусственном интеллекте в июне, который определит потенциальные глобальные стандарты для применения технологий искусственного интеллекта в бизнесе и повседневной жизни.

За последние месяцы наблюдается растущая озабоченность из-за распространения генеративных систем искусственного интеллекта, таких как ChatGPT от Microsoft и платформы Google, что усиливает опасения относительно дезинформации, фейковых новостей и нарушения авторских прав.

Два месяца назад законодатели ЕС утвердили и пересмотрели проект регулирования искусственного интеллекта, начатый Европейской комиссией в 2021 году. Законодательный акт ЕС по искусственному интеллекту предписывает строгие требования к прозрачности для высокорисковых систем искусственного интеллекта и более мягкие для общих моделей искусственного интеллекта. Он ограничивает использование правительством реального времени биометрического наблюдения на открытых площадках в определенных уголовных делах, в предотвращении терроризма и в поисках, связанных с самыми тяжкими преступлениями.

Министр цифровизации Бельгии Матье Мишель выразил мнение, что данный законодательный акт решает глобальные технологические проблемы и открывает возможности для общества и экономики.

Патрик ван Экке из юридической фирмы Cooley считает, что законодательный акт ЕС по искусственному интеллекту окажет влияние, простирающееся далеко за пределы 27 государств-членов ЕС. Не-ЕС компании, использующие данные клиентов из ЕС в своих платформах искусственного интеллекта, должны будут соответствовать требованиям, что, возможно, повлияет на другие страны, подобно Общему регламенту по защите данных ЕС (GDPR).

Согласно законодательному акту ЕС по искусственному интеллекту, инструменты искусственного интеллекта будут классифицироваться по их предполагаемому уровню риска: минимальный, ограниченный, высокий и недопустимый. Высокорисковые применения искусственного интеллекта, такие как биометрическое наблюдение и инструменты, способные распространять дезинформацию или дискриминацию, не будут полностью запрещены, но потребуют высокого уровня операционной прозрачности. Например, компании, стоящие за генеративными инструментами, такими как ChatGPT или генератор изображений Midjourney, должны раскрывать любую копирайтованную базу знаний, использованную в разработке их систем.

Штрафы за нарушения могут варьироваться от 7,5 миллионов евро (приблизительно 8,2 миллионов долларов США) или 1,5% выручки компании до 35 миллионов евро или до 7% от глобальной выручки.

Важные вопросы и ответы:

1. Каковы основные положения законодательного акта ЕС по искусственному интеллекту?
Законодательный акт определяет строгие требования к прозрачности для высокорисковых систем искусственного интеллекта, ослабляемые для обычных моделей искусственного интеллекта. Он ограничивает реальное биометрическое наблюдение правительством в определенных случаях и классифицирует инструменты искусственного интеллекта по их предполагаемому уровню риска: минимальный, ограниченный, высокий и недопустимый.

2. Как законодательный акт по искусственному интеллекту повлияет на компании за пределами Европейского союза?
Аналогично последствиям GDPR, компании за пределами ЕС, использующие данные от клиентов из ЕС в своих платформах искусственного интеллекта, должны будут обеспечить соответствие законодательному акту, что, возможно, установит глобальный регуляторный прецедент для технологий искусственного интеллекта.

3. Какие виды штрафов предлагаются в законодательном акте по искусственному интеллекту?
Законодательный акт предполагает наложение штрафов за несоблюдение от 7,5 миллиона евро или 1,5% выручки компании до 35 миллионов евро или до 7% от глобальной выручки в зависимости от серьезности нарушения.

Ключевые проблемы и споры:
— Обеспечение глобального соответствия может быть сложной задачей, поскольку не-ЕС компании должны согласовывать свои действия с этими нормами, учитывая свои местные правовые обязательства.
— Различие между категориями искусственного интеллекта и то, что считать ‘высоким риском’, может вызывать разногласия и привести к разночтениям в трактовке.
— Закон мог бы вызвать опасения относительно подавления инноваций, поскольку компаниям, возможно, придется направить значительные ресурсы на обеспечение соответствия, вместо того чтобы сосредоточиться на развитии.
— Определение и наложение штрафов может быть сложным процессом, особенно учитывая, что оценка нарушений и вычисление применимого процента от оборота могут включать сложные юридические интерпретации.

Преимущества и недостатки:

Преимущества:
— Закон способствует защите прав потребителей, устанавливая стандарты прозрачности для систем искусственного интеллекта, которые могут непосредственно повлиять на жизнь и безопасность.
— Он может создать золотой стандарт регулирования искусственного интеллекта и укрепить доверие к технологиям искусственного интеллекта среди общества.
— Вводя ограничения на использование искусственного интеллекта, он может предотвратить злоупотребления, такие как нарушительное наблюдение и дискриминацию.

Недостатки:
— Он может повлечь значительные издержки для компаний, которым придется соответствовать ему, возможно, затрудняя инновации и экономическую конкурентоспособность.
— Возможно возникновение правовой неопределенности и сложности, что затруднит понимание требований разработчикам искусственного интеллекта.
— Это может поставить европейские компании по искусственному интеллекту в невыгодное положение по сравнению с международными конкурентами, которые не сталкиваются с подобными регуляторными бременами.

Для получения дополнительной информации о Европейском союзе и его инициативах вы можете посетить официальный сайт ЕС, воспользовавшись следующей ссылкой: Европейский Союз. Обратите внимание, что так как законодательный акт по искусственному интеллекту еще не был формально реализован, ссылка на официальный домен ЕС является наиболее надежным способом узнать актуальную и верную информацию.

Privacy policy
Contact