Уряд США оголосив про нові політики щодо регулювання штучного інтелекту

Адміністрація Байдена недавно представила три нові політики для регулювання використання штучного інтелекту (AI) у федеральних установах. Ці політики, які вважаються вимірником глобальних дій, спрямовані на вирішення питань щодо впливу AI на працездатність в США, конфіденційність, національну безпеку та можливість дискримінаційного прийняття рішень.

Для того, щоб забезпечити безпеку та права американців, Управління та бюджет закликало федеральні установи використовувати AI таким чином, щоб не порушувати “права та безпеку” громадян. Додатково федеральним установам буде необхідно публікувати онлайн список систем штучного інтелекту, якими вони користуються, разом із оцінкою ризиків, пов’язаних з цими системами та способами їх управління.

Крім того, Білий дім спрямовує всі федеральні установи призначити головного офіцера з штучного інтелекту з впевненим досвідом у галузі. Ця особа буде відповідальна за нагляд за використанням технологій AI у межах установи, забезпечуючи, що вони використовуються етично та ефективно.

Віце-президентка Камала Гарріс, яка стала провідною силою у формуванні політики адміністрації з питань AI, наголосила на важливості цих регулювань на глобальному рівні. Вона вважає, що всі лідери, незалежно від сектору, мають відповідальність забезпечити відповідне прийняття та розвиток AI для захисту громадськості від можливих загроз, при цьому максимізуючи його переваги.

Уряд вже оприлюднив понад 700 випадків поточного та запланованого використання AI в різних установах. Приклади варіюються від виявлення COVID-19 через аналіз кашлю через смартфон до виявлення підозрілих військових злочинів та запобігання нелегальній торгівлі товарами. Однак, щоб зменшити можливі ризики, федеральним установам тепер буде вимагатися реалізувати заходи безпеки, які надійно оцінують, тестують та моніторять вплив AI на громадськість. Це включає зусилля для запобігання алгоритмічної дискримінації та забезпечення прозорої відповідальності за використання AI урядом.

Ілюстративний приклад, наведений Віце-президенткою Гарріс, стосується використання AI для діагностики пацієнтів у Ветеранській адміністрації. У цьому сценарії ключовим є те, що система AI має демонструвати, що її діагнози не є рейськими.

Указ Президента Байдена щодо штучного інтелекту, який використовує Закон про оборонну продукцію, вимагає, щоб компанії, що розробляють передові платформи AI, повідомляли та ділилися результатами випробувань безпеки з урядом. Ці випробування, які проводяться шляхом процесу, відомого як “red-teaming”, передбачають ретельну оцінку ризиків. Національний інститут стандартів та технологій також працює над встановленням стандартів для випробування red-team, щоб забезпечити безпеку та відповідальне впровадження технологій AI для громадськості.

Ці нові політики є значним кроком уперед у регулюванні та управлінні AI в США. Шляхом пріоритизації прозорості, відповідальності та захисту громадян федеральний уряд має на меті встановлення міцного рамка, яка може слугувати моделлю для глобальних регуляцій щодо AI.

The source of the article is from the blog exofeed.nl

Privacy policy
Contact