Регулирование неправомерного использования искусственного интеллекта: необходимость в лучших законах и прозрачности

Австралия выявила необходимость усиления регулирования для предотвращения и ответа на потенциальный вред, причиняемый искусственным интеллектом (ИИ) и машинным обучением. Председатель Комиссии по инвестициям и ценным бумагам Австралии (ASIC) Джо Лонго признал, что существующие законы используются для привлечения компаний к ответственности, однако требуются реформы для эффективного регулирования новых технологий.

Несмотря на то, что действующие законы охватывают общие принципы, применимые ко всем секторам экономики, существуют пробелы в законодательстве в отношении вопросов, связанных с ИИ. Вред, причиненный «непрозрачными» системами ИИ, сложнее обнаружить, чем традиционные экономические преступления, поэтому необходимо иметь регулирование, нацеленное на преступления, совершаемые с помощью алгоритмов или ИИ. Лонго подчеркнул, что, хотя существующие законы могут быть достаточными для наказания неблаговидных действий, их способность предотвратить вред ограничена.

Лонго выделил потенциальные сценарии неправомерного использования ИИ, такие как манипуляции на фондовом рынке или внутренняя торговля. Хотя в рамках действующей системы можно накладывать штрафы, законы, специфичные для ИИ, были бы более эффективными в предотвращении и устрашении таких нарушений. Прозрачный надзор и руководство необходимы для предотвращения недобросовестных практик, но существующая регулятивная система может быть недостаточной для обеспечения этого.

Также были высказаны опасения относительно защиты потребителей от вреда, причиняемого ИИ. Среди текущих проблем отсутствие прозрачности в использовании ИИ, неумышленный предвзятость и трудности в обжаловании автоматизированных решений и установлении ответственности за ущерб. Необходимо решить эти проблемы, а также обеспечить возможность обращения для лиц, которые могут быть подвержены несправедливому дискриминации или пострадать от предвзятых решений ИИ.

Ответ правительства на обзор Закона о конфиденциальности заключается в принципиальном одобрении установления права требовать объективной информации о порядке принятия автоматизированных решений. Однако, Общий регламент по защите данных Европейского союза идет дальше, делая незаконным принятие решений, основанных только на автоматической обработке данных.

Разработчики и политики предложили такие решения, как программирование «конституций ИИ» в модели принятия решений, чтобы обеспечить соблюдение установленных правил. Эти вызовы подчеркивают важность продолжающихся дискуссий и реформ в создании регулятивной рамки, которая способствует ответственному использованию ИИ и защищает людей от возможных угроз.

В заключение, хотя существующие законы используются для решения вопросов, связанных с ИИ, требуются всесторонние реформы для эффективного регулирования новых технологий. Прозрачность, надзор и учет возможных предвзятостей являются ключевыми в разработке регуляций, которые способствуют справедливой и ответственной практике использования ИИ.

The source of the article is from the blog j6simracing.com.br

Privacy policy
Contact