Европейские парламентарии одобрили историческое соглашение о Законе об искусственном интеллекте

В знаковом событии члены Европейского парламента (ЕП) высказали свою поддержку временному соглашению о Законе об искусственном интеллекте, что является значительным шагом вперед для обеспечения безопасности и соблюдения фундаментальных прав. Комитеты внутреннего рынка и гражданских свобод массово проголосовали за одобрение согласованного исхода между государствами-членами Европейского союза и парламентом по этому историческому законодательству.

Основная цель этого регулирования — обеспечить защиту демократических принципов, верховенства права, фундаментальных прав и экологической устойчивости от потенциальных рисков, связанных с высокими рисками технологий искусственного интеллекта. С помощью установления четких обязательств на основе уровня воздействия и потенциальных рисков, законодательство стремится найти баланс между защитой граждан и продвижением инноваций с целью укрепления лидерства Европы в области искусственного интеллекта.

Ключевым аспектом законодательства является запрет на определенные применения искусственного интеллекта, которые представляют угрозу для прав личности. Это включает запреты на системы категоризации биометрических данных на основе чувствительных характеристик, нецелевое сбор данных о лицах для баз данных распознавания лиц, распознавание эмоций на рабочих местах и в школах, социальную оценку, предиктивную полицию на основе профилирования, а также использование искусственного интеллекта для манипулирования поведением людей и эксплуатации их уязвимостей.

Законодательство также регулирует использование систем биометрической идентификации правоохранительными органами. В общем принципе запрещено использование таких систем, однако допускаются исключения в определенных ситуациях, например, при поиске пропавших лиц или предотвращении террористических актов. При этом существуют строгие гарантии, включая ограниченную продолжительность и географическую область, а также предварительное судебное или административное разрешение.

Кроме того, законодательство предусматривает обязательства для систем искусственного интеллекта высокого риска, которые могут оказывать значительное влияние на здоровье, безопасность, фундаментальные права, окружающую среду и демократические процессы. Сюда входят критическая инфраструктура, образование, профессиональная подготовка, занятость, основные услуги, правоохранительные органы, миграция и управление границами, правосудие и демократические процессы. Лица, подвергшиеся воздействию систем искусственного интеллекта высокого риска, имеют право подавать жалобы и получать пояснения в отношении решений, которые затрагивают их права.

Для повышения прозрачности законодательство требует, чтобы распространяемые системы искусственного интеллекта соответствовали определенным требованиям и соблюдали законодательство ЕС в области авторского права во время обучения. Более мощные модели, которые могут создавать системные риски, будут подвергаться дополнительной оценке, оценке рисков и обязательствам отчетности, а манипулированный мультимедийный контент, такой как «deepfakes», должен быть явно помечен.

Соглашение также включает меры для поддержки инноваций, особенно для малых и средних предприятий (МСП) и стартапов. На национальном уровне будут созданы регуляторные песочницы и испытания в реальных условиях, предоставляя возможности МСП и стартапам разрабатывать и обучать инновационные технологии искусственного интеллекта до размещения на рынке.

Следующими шагами для законодательства являются его официальное принятие на предстоящем заседании парламента и окончательное одобрение Совета. После вступления в силу законодательство будет полностью применяться в течение 24 месяцев, с некоторыми положениями, вступающими в силу раньше. Это прорывное соглашение создает основу для ответственной и этически обоснованной разработки искусственного интеллекта в Европейском союзе.

Часто задаваемые вопросы:

1. Какова цель Закона об искусственном интеллекте?
Основная цель регулирования заключается в обеспечении защиты демократических принципов, верховенства права, фундаментальных прав и экологической устойчивости от потенциальных рисков, связанных с высокими рисками технологий искусственного интеллекта.

2. Какие примеры приложений искусственного интеллекта запрещены в рамках законодательства?
Законодательство запрещает определенные применения искусственного интеллекта, представляющие угрозу для прав личности, включая системы категоризации биометрических данных на основе чувствительных характеристик, нецелевой сбор данных о лицах для баз данных распознавания лиц, распознавание эмоций на рабочих местах и в школах, социальную оценку, предиктивную полицию на основе профилирования и искусственный интеллект, манипулирующий поведением людей или использующий их уязвимости.

3. Допускаются ли исключения для использования систем биометрической идентификации правоохранительными органами?
Хотя в общем принципе запрещено использование таких систем, в определенных ситуациях допускаются исключения, например, при поиске пропавших лиц или предотвращении террористических атак. При этом существуют строгие гарантии, включая ограниченную продолжительность и географическую область, а также предварительное судебное или административное разрешение.

4. Какие обязательства предусмотрены для систем искусственного интеллекта высокого риска?
Законодательство определяет обязательства для систем искусственного интеллекта высокого риска, которые могут оказывать значительное влияние на здоровье, безопасность, фундаментальные права, окружающую среду и демократические процессы. Это включает такие сферы, как критическая инфраструктура, образование, профессиональная подготовка, занятость, основные услуги, правоохранительные органы, миграция и управление границами, правосудие и демократические процессы.

5. Как законодательство способствует прозрачности в системах искусственного интеллекта?
Для обеспечения прозрачности общего назначения системы искусственного интеллекта должны соответствовать определенным требованиям и соблюдать законодательство ЕС в области авторских прав во время обучения. Более мощные модели, которые могут создавать системные риски, будут подвергаться дополнительной оценке, оценке рисков и обязательствам отчетности. Манипулированный мультимедийный контент, такой как «deepfakes», должен быть явно помечен.

6. Какие меры предусмотрены для поддержки инноваций?
Соглашение включает мер

The source of the article is from the blog xn--campiahoy-p6a.es

Privacy policy
Contact