Европейский союз выступает за ответственное использование искусственного интеллекта с помощью революционного законодательства

Министры Европейского союза достигли консенсуса по первоначальному законодательству в области искусственного интеллекта.
Министры Европейского союза единогласно проголосовали за исторически значимый и первоначальный законопроект, регулирующий искусственный интеллект (ИИ). Новый закон предназначен специально для регулирования ситуаций с высоким риском, включая правоохранительные органы и процессы найма.

Госсекретарь по цифровым вопросам Бельгии отметил значимость этого революционного законодательства. Он подчеркнул его роль в преодолении глобального технологического вызова и создании возможностей для обществ и экономик.

Европейское законодательство позволяет использование искусственного интеллекта, но запрещает его использование, если технология является угрозой для людей. В нем предусмотрены строгие регулирования для систем высокого риска, разрешающие их использование только в случае, если они доказали соблюдение фундаментальных прав.

Новый закон о запрете дискриминационных систем искусственного интеллекта.
Системы, использующие биометрическую категоризацию на основе политических, религиозных, философских убеждений, расы или пола, запрещены в соответствии с новым регулированием. Кроме того, закон запрещает эксплуатацию поведенческого манипулирования и запрещает системы, оценивающие людей на основе поведения или личных характеристик.

Этот закон также направлен на предотвращение нерегулируемого расширения или создания баз данных с данными о лицах, которые собираются случайным образом через интернет или с помощью аудио- и видеозаписей.

Хотя закон накладывает данные ограничения, он разрешает силовым структурам использовать камеры с биометрической идентификацией при наличии судебного решения для предотвращения террористических угроз, например.

Обязательная маркировка контента и сертификация AI на рынке.
Созданный искусственным интеллектом контент, такой как тексты, изображения или видео, должен быть классифицирован для защиты зрителей от обманчивого контента deepfake. Системы высокого риска должны получить сертификацию от аккредитованных органов перед входом на рынок ЕС под надзором нового органа искусственного интеллекта.

Несоблюдение закона может повлечь штрафы до 35 миллионов евро или 7% годового оборота компании в зависимости от характера нарушителя.

Инициатива по законодательству об искусственном интеллекте была впервые предложена Европейской комиссией в апреле 2021 года во время председательства Португалии в Совете Евросоюза.

Факты:
— Европейский союз (ЕС) имеет исторические корни в управлении новыми технологиями и ранее принял Общее регулирование по защите данных (GDPR), которое также оказало глобальное влияние.
— Системы искусственного интеллекта вызывают ряд этических проблем, включая предвзятость, проблемы конфиденциальности и вызовы, связанные с автоматизацией и занятостью.
— Подход Европейской комиссии к регулированию искусственного интеллекта основан на концепции «надежного искусственного интеллекта», включающего в себя легальные, этические и устойчивые системы искусственного интеллекта.

Важные вопросы и ответы:
Какие виды систем искусственного интеллекта считаются «высоким риском»?
К системам искусственного интеллекта с высоким риском относятся те, которые используются в критической инфраструктуре (например, в транспорте), в образовании или профессиональном обучении, управлении занятостью и работниками, важных частных и государственных службах (например, оценка кредитоспособности), правоохранение, миграция, управление убежищем и контроль на границах, а также в судебном процессе и демократических процессах.

Почему ЕС принимает регулятивный подход к искусственному интеллекту?
ЕС стремится обеспечить прозрачность, прослеживаемость и соблюдение фундаментальных прав в системах искусственного интеллекта. Кроме того, они хотят создать законную уверенность, чтобы облегчить инвестиции и инновации в области искусственного интеллекта.

Как AI Act классифицирует и регулирует системы искусственного интеллекта с низким риском?
Приложения искусственного интеллекта с низким риском подпадают под минимальные требования. Они могут включать в себя системы искусственного интеллекта для видеоигр или фильтров от спама. Поставщиков систем искусственного интеллекта с низким риском могут призвать следовать добровольным кодексам поведения.

Основные проблемы и споры:
— Баланс между инновациями и регулированием: Слишком строгие регулирования могут подавить инновации в области искусственного интеллекта, а слишком мягкие могут привести к злоупотреблению и нарушению фундаментальных прав.
— Международное воздействие и согласование: Законодательство ЕС может повлиять на международные компании и установить глобальную тенденцию в регулировании, что может вызвать споры относительно юрисдикции и стандартов соблюдения, которые должны соблюдать компании не из ЕС.
— Проблемы конфиденциальности против мер безопасности: Позволение биометрической идентификации для безопасности может вызвать споры, связанные с массовым наблюдением и влиянием на конфиденциальность и свободу граждан.

Преимущества:
— Содействие развитию этичного и надежного искусственного интеллекта.
— Предоставление правовой ясности и предсказуемости для компаний, инвестирующих в искусственный интеллект.
— Потенциал стать глобальным стандартом в регулировании, оказывая влияние на международные нормы в области искусственного интеллекта.

Недостатки:
— Может замедлить темп инноваций в области искусственного интеллекта в ЕС из-за регулятивной нагрузки.
— Возможное возникновение конфликтов с другими правовыми режимами, особенно в случаях, когда системы искусственного интеллекта имеют мировой характер.
— Проблемы с эффективным применением таких норм по всем разнообразным членским государствам ЕС.

Для получения дополнительной информации вы можете посетить официальный веб-сайт Европейского союза: Европейский союз. Обратите внимание, что из-за моего последнего обновления в 2023 году внешние ссылки следует проверять на их актуальность и актуальность.

The source of the article is from the blog oinegro.com.br

Privacy policy
Contact