Европейский союз нацелен на поддержку ответственного использования искусственного интеллекта с помощью революционного законодательства

Министры европейских стран достигли согласия по новаторскому законодательству в области искусственного интеллекта. Министры Европейского союза единогласно приняли исторически значимый и прогрессивный законопроект, регулирующий использование искусственного интеллекта (ИИ). Новоe законодательство специально разработано для регулирования ситуации высокого риска, включая правопорядок и процессы найма персонала.

Государственный секретарь по цифровым технологиям Бельгии признал значимость данного революционного законодательства. Он выделил роль закона в решении глобальных технологических вызовов и создании возможностей для обществ и экономик.

Европейский закон позволяет использование ИИ, в то время как его использование запрещено, когда технология представляет угрозу для людей. Он содержит строгие регуляции по отношению к высокорисковым системам, разрешая их использование только после доказательства соблюдения фундаментальных прав.

Новый закон о ИИ запрещает дискриминационные системы. Системы, использующие биометрическую категоризацию на основе политических, религиозных, философских убеждений, расы или пола, запрещены в соответствии с новым регулированием. Кроме того, закон предотвращает эксплуатацию поведенческого манипулирования и запрещает системы, оценивающие людей на основе поведения или личных характеристик.

Этот закон также направлен на предотвращение неконтролируемого расширения или создания баз данных лицевых данных, которые могут быть случайно захвачены через интернет или при помощи звуковых и видеозаписей.

Хотя закон устанавливает ограничения, он предусматривает возможность использования камер с биометрической идентификацией судебным приказом силовыми структурами для предотвращения угроз со стороны террористов, например.

Обязательная маркировка контента и сертификация рынка ИИ. Созданные при помощи ИИ контент, такие как тексты, изображения или видео, должны быть классифицированы для защиты зрителей от обманчивого контента deepfake. Системы высокого риска должны получить сертификацию от аккредитованных органов перед входом на рынок ЕС, проконтролируемый новым Офисом по искусственному интеллекту.

Несоблюдение закона может привести к штрафу до 35 миллионов евро или 7% годового оборота компании в зависимости от характера нарушителя.

Эта инициатива по законодательству об искусственном интеллекте была предложена впервые Европейской комиссией в апреле 2021 года во время председательства Португалии в Совете ЕС.

Факты:
— Европейский союз (ЕС) имеет исторические основы в управлении новыми технологиями и ранее принял Общее регулирование по защите данных (GDPR), которое также оказало глобальное влияние.
— Системы искусственного интеллекта ставят перед собой ряд этических вопросов, включая предвзятость, проблемы конфиденциальности и вызовы, связанные с автоматизацией и занятостью.
— Подход Комиссии ЕС к регулированию искусственного интеллекта основан на концепции «достоверного ИИ», который включает в себя ИИ, который является законным, этичным и надежным.

Важные вопросы и ответы:
Какие типы систем ИИ считаются «высокорисковыми»?
К высокорисковым системам искусственного интеллекта относятся те, которые используются для критической инфраструктуры (например, транспорт), образования или профессионального обучения, управления трудовыми ресурсами и работниками, основных частных и общественных услуг (например, оценка кредитоспособности), правопорядка, миграции, управления беженцами и контроля за границей, а также администрации правосудия и демократических процессов.

Почему ЕС принимает регулятивный подход к ИИ?
ЕС стремится обеспечить прозрачность, прослеживаемость и соблюдение фундаментальных прав систем искусственного интеллекта. Кроме того, они хотят создать юридическую уверенность, чтобы облегчить инвестиции и инновации в области ИИ.

Как Акт о ИИ классифицирует и регулирует системы низкого риска?
Низкорисковые применения искусственного интеллекта подлежат минимальным требованиям. Они могут включать в себя системы искусственного интеллекта для видеоигр или фильтров от спама. Поставщиков низкорискового ИИ можно призвать следовать добровольным кодексам поведения.

Основные вызовы и споры:
— Балансировка инноваций и регулирования: Слишком строгие регуляции могут задушить инновации в области ИИ, в то время как слишком мягкие могут привести к злоупотреблениям и нарушению фундаментальных прав.
— Международное воздействие и согласованность: Законодательство ЕС может повлиять на международные компании и установить глобальную регуляторную тенденцию, что может вызвать споры в отношении юрисдикции и стандартов соблюдения, которые должны соблюдать негосударственные компании.
— Вопросы конфиденциальности против мер безопасности: Разрешение использовать биометрическую идентификацию для безопасности может вызвать споры, касающиеся общественного наблюдения и влияния на конфиденциальность и свободу граждан.

Преимущества:
— Содействие развитию этичного и доверенного искусственного интеллекта.
— Обеспечение юридической ясности и предсказуемости для предприятий, инвестирующих в искусственный интеллект.
— Потенциал стать глобальным стандартом регулирования, влияющим на международные нормы в сфере искусственного интеллекта.

Недостатки:
— Возможное замедление темпов инноваций в области искусственного интеллекта в ЕС из-за регуляторного бремени.
— Потенциал конфликта с другими регуляторными режимами, особенно в случаях, когда системы ИИ имеют глобальный характер.
— Опасения относительно эффективного применения таких регуляций в разнообразных странах-членах ЕС.

Для получения дополнительной информации, вы можете посетить официальный веб-сайт Европейского союза: Европейский союз. Пожалуйста, обратите внимание, что в силу моего последнего обновления в 2023 году внешние ссылки следует проверять на текущую действительность и актуальность.

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact