Великі технологічні гіганти Великобританії закликають до проходження тестів безпеки штучного інтелекту (AI)

Великі технологічні гіганти Великобританії, зокрема OpenAI, Google DeepMind, Microsoft та Meta, закликають уряд країни прискорити проходимість тестів безпеки для систем штучного інтелекту (AI). Хоча компанії зобов’язалися відкрити свої найновіші генеративні моделі AI для огляду у недавно створеному Інституті безпеки AI (AISI), вони прагнуть отримати чіткість з приводу тестів, графіків і процесу отримання зворотного зв’язку.

У відміну від юридично зобов’язуючих угод, ці добровільні зобов’язання підкреслюють виклики, пов’язані з покладанням на індустріальну саморегуляцію в стрімко змінюючійся галузі AI. Відповідаючи на це, уряд Великобританії підкреслює необхідність майбутніх юридично зобов’язуючих вимог, щоб забезпечити відповідальність розробників AI за безпеку систем.

Підтримуваний урядом AISI, який відіграє ключову роль у візії прем’єр-міністра Ріші Сунака про те, що Велика Британія стане лідером у вирішенні потенційних ризиків AI, вже розпочав тестування існуючих моделей AI. Він також має доступ до непублікованих моделей, таких як Gemini Ultra від Google. Основний акцент цих тестів спрямований на пом’якшення ризиків, пов’язаних з неправильним використанням AI, зокрема в галузі кібербезпеки. Співпраця з Національним центром кібербезпеки в Центральному штабі зв’язку уряду (GCHQ) надає експертизу в цій важливій галузі.

Нещодавні урядові контракти свідчать про те, що AISI виділив 1 мільйон фунтів стерлінгів для придбання можливостей для тестування схильності AI chatbots до виходу з ладу та надійного захисту від атак типу spear-phishing. Крім цього, AISI розробляє автоматизовані системи для сприяння зворотному проектуванню вихідного коду, що дозволяє провести ретельну оцінку моделей AI.

Google DeepMind заявив про своє намір співпрацювати з AISI з метою покращення оцінки та практик безпеки моделей AI. Однак OpenAI та Meta відмовилися коментувати це питання.

В цілому, активна позиція великих технологічних гігантів Великобританії щодо тестування безпеки AI відображає важливість відповідального розвитку та регулювання для ефективного вирішення потенційних ризиків, пов’язаних з просуванням AI. Уряд акцентує увагу на юридично зобов’язуючих вимогах та співпраці з промисловістю з метою забезпечення безпеки та відповідальності в стрімко зростаючій галузі технологій штучного інтелекту.

Часто задавані питання: Великобританійські технологічні гіганти закликають до тестів безпеки AI

1. На що закликають великобританські технологічні гіганти уряд Великобританії прискорити?
Великобританські технологічні гіганти, зокрема OpenAI, Google DeepMind, Microsoft та Meta, закликають уряд Великобританії прискорити тести безпеки для систем штучного інтелекту (AI).

2. Які зобов’язання взяли на себе ці компанії?
Ці компанії зобов’язалися відкрити свої найновіші генеративні моделі AI для огляду у недавно створеному Інституті безпеки AI (AISI).

3. Які виклики пов’язані зі саморегулюванням галузі AI?
Добровільні зобов’язання підкреслюють виклики, пов’язані зі саморегулюванням галузі швидкозмінних AI.

4. На що уряд Великобританії наголошує у відповідь?
Уряд Великобританії наголошує на необхідності майбутніх юридично зобов’язуючих вимог, щоб забезпечити відповідальність розробників AI за безпеку систем.

5. Яку роль відіграє AISI у візі уряду?
AISI, який підтримується урядом, відіграє ключову роль в візі прем’єр-міністра Ріші Сунака щодо лідерства Великобританії у вирішенні потенційних ризиків AI.

6. Що вже почала тестувати AISI?
AISI вже розпочав тестування існуючих моделей AI, включаючи доступ до непублікованих моделей, таких як Gemini Ultra від Google.

7. На які ризики спрямовані тести безпеки AI?
Акцент цих тестів зроблений на пом’якшенні ризиків, пов’язаних з неправильним використанням AI, зокрема в галузі кібербезпеки.

8. З ким співпрацює AISI для забезпечення експертизи в галузі кібербезпеки?
AISI співпрацює з Національним центром кібербезпеки в Центральному штабі зв’язку уряду (GCHQ), щоб надати експертизу в галузі кібербезпеки.

9. Які можливості придбає AISI за 1 мільйон фунтів стерлінгів?
AISI виділив 1 мільйон фунтів стерлінгів для придбання можливостей для тестування схильності AI chatbots до виходу з ладу та захисту від атак типу spear-phishing.

10. Які автоматизовані системи розробляє AISI?
AISI розробляє автоматизовані системи для сприяння зворотному проектуванню вихідного коду, що дозволяє ретельно оцінити моделі AI.

11. Як Google DeepMind виражає свою залученість до AISI?
Google DeepMind заявив про свою залученість до співпраці з AISI з метою покращення оцінки та практик безпеки моделей AI.

12. На чому акцентує уряд в галузі технологій AI?
Уряд акцентує увагу на юридично зобов’язуючих вимогах та співпраці з промисловістю з метою забезпечення безпеки та відповідальності в стрімко зростаючій галузі технологій штучного інтелекту.

Означення:
– AI: Artificial Intelligence (штучний інтелект)
– AISI: AI Safety Institute (Інститут безпеки AI)
– Генеративні моделі AI: моделі AI, які можуть створювати новий контент або генерувати нові дані на основі наявних шаблонів або інформації.
– Саморегулювання: здатність галузі або організації регулювати себе без зовнішнього втручання уряду.

Пов’язані посилання:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Управління зв’язком уряду (GCHQ)

[вбудоване]https://www.youtube.com/embed/R2meHtrO1n8[/вбудоване]

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact