Новые правила использования искусственного интеллекта: риски и перспективы

Недавно администрация Байдена представила три новых политики регулирования использования исскуственного интеллекта (ИИ) федеральным правительством. Эти политики, которые рассматриваются как ориентир для глобальных действий, направлены на решение проблем, связанных с влиянием ИИ на трудовую силу США, конфиденциальность, национальную безопасность и возможную дискриминацию в принятии решений.

Убедившись в безопасности и правах американцев, Управление по бюджету предписало федеральным агентствам использовать ИИ таким образом, чтобы это не подвергало риску «права и безопасность» граждан. Кроме того, федеральным агентствам требуется публиковать онлайн список используемых ими систем ИИ, а также оценку связанных с ними рисков и способы их управления.

Кроме того, Белый дом направляет все федеральные агентства на назначение главного специалиста по ИИ с сильным опытом в этой сфере. Этот специалист будет ответственен за надзор за использованием технологий ИИ в агентстве и за то, чтобы они применялись этично и эффективно.

Вице-президент Камала Харрис, которая была одним из ведущих фигур в формировании политики администрации по ИИ, подчеркнула важность этих регулирований на мировом уровне. Она считает, что все лидеры, независимо от сектора, несут ответственность за обеспечение ответственного принятия и развития ИИ, чтобы защитить общественность от потенциального вреда и максимизировать его преимущества.

Правительство уже раскрыло более 700 случаев текущего и планируемого использования ИИ различными агентствами. Примеры включают обнаружение COVID-19 через анализ кашля по смартфону, выявление подозреваемых в военных преступлениях и предотвращение незаконной торговли товарами. Однако, чтобы смягчить потенциальные риски, федеральные агентства теперь должны внедрить меры безопасности, которые надежно оценивают, тестируют и контролируют влияние ИИ на общественность. Это включает усилия по предотвращению алгоритмической дискриминации и обеспечению прозрачной ответственности при использовании ИИ правительством.

Иллюстративным примером, предоставленным вице-президентом Харрис, является использование ИИ для диагностики пациентов в ведомстве ветеранов. В этом случае для ИИ-системы крайне важно продемонстрировать, что ее диагнозы не имеют расовой предвзятости.

Подписание президентом Байденом указа о ИИ, который использует Закон о производственной обороне, обязывает компании, разрабатывающие передовые платформы ИИ, уведомлять и делиться результатами испытаний безопасности с правительством. Эти испытания, проводимые через процесс, известный как «red-teaming», включают в себя тщательную оценку рисков. Национальный институт стандартов и технологий также работает над установлением стандартов для тестирования red-team, чтобы обеспечить безопасное и ответственное развертывание технологий ИИ для общественности.

Эти новые политики являются значительным шагом вперед в регулировании и управлении ИИ в Соединенных Штатах. Приоритетом является обеспечение прозрачности, ответственности и защиты граждан, чтобы федеральное правительство стремилось создать надежную систему, способную служить моделью для глобальных регулирований ИИ.

FAQ

The source of the article is from the blog trebujena.net

Privacy policy
Contact