Технологические гиганты Великобритании призывают к тестированию безопасности искусственного интеллекта (ИИ)

Технологические гиганты Великобритании, включая OpenAI, Google DeepMind, Microsoft и Meta, призывают правительство Великобритании ускорить процесс тестирования безопасности систем искусственного интеллекта (ИИ). Хотя компании обязались открыть свои последние генеративные модели ИИ для проверки вновь созданского Институтом безопасности ИИ (AISI), им необходима ясность относительно тестов, сроков и процесса обратной связи.

В отличие от юридически обязательных соглашений, эти добровольные обязательства подчеркивают сложности, связанные с полаганием на саморегулирование отрасли в быстро развивающейся области ИИ. В ответ на это правительство Великобритании подчеркивает необходимость будущих обязательных требований для привлечения разработчиков ИИ к ответственности за безопасность систем.

Инициированный правительством AISI, который играет ключевую роль в видении премьер-министра Риши Сунака о Великобритании как лидера в области решения потенциальных рисков ИИ, уже начал тестирование существующих моделей ИИ. У него также есть доступ к необнародованным моделям, таким как Gemini Ultra от Google. Центр национальной кибербезопасности при штаб-квартире правительства по связям с общественностью (GCHQ) оказывает свою экспертную помощь в этой важной области.

Последние правительственные контракты показывают, что АИСИ выделил 1 миллион фунтов стерлингов на приобретение возможностей для тестирования подверженности ИИ-чатботов к взлому и защиты от целенаправленных фишинговых атак. Кроме того, АИСИ разрабатывает автоматизированные системы для обратной разработки исходного кода, позволяющие тщательно оценивать модели ИИ.

Google DeepMind выразила свою готовность сотрудничать с АИСИ с целью улучшения оценки и практик безопасности моделей ИИ. Однако OpenAI и Meta отказались комментировать этот вопрос.

В целом, инициатива британских технологических гигантов по проведению тестов на безопасность ИИ отражает важность ответственной разработки и регулирования с целью эффективного управления потенциальными рисками, связанными с прогрессом ИИ. Фокус правительства на обязательных требованиях и сотрудничестве с отраслью направлен на обеспечение безопасности и ответственности в быстрорастущей области технологий искусственного интеллекта (ИИ).

Часто задаваемые вопросы: Технологические гиганты Великобритании требуют тестирования безопасности ИИ

1. На что технологические гиганты Великобритании призывают правительство Великобритании ускориться?
Технологические гиганты Великобритании, включая OpenAI, Google DeepMind, Microsoft и Meta, призывают правительство Великобритании ускорить тестирование безопасности систем искусственного интеллекта (ИИ).

2. Какие обязательства приняли эти компании?
Компании обязались открыть свои последние генеративные модели ИИ для проверки вновь созданским Институтом безопасности ИИ (AISI).

3. Какие сложности связаны с полаганием на саморегулирование отрасли в области ИИ?
Добровольные обязательства подчеркивают сложности, связанные с полаганием на саморегулирование отрасли в быстро развивающейся области ИИ.

4. Что подчеркивает правительство Великобритании в ответ?
Правительство Великобритании подчеркивает необходимость будущих обязательных требований для привлечения разработчиков ИИ к ответственности за безопасность систем.

5. Какова роль АИСИ в видении правительства Великобритании?
АИСИ, поддерживаемый правительством, играет ключевую роль в видении премьер-министра Риши Сунака о Великобритании как лидера в области решения потенциальных рисков ИИ.

6. Что уже начал тестировать АИСИ?
АИСИ уже начал тестирование существующих моделей ИИ, включая доступ к необнародованным моделям, таким как Gemini Ultra от Google.

7. На какие риски сфокусированы тесты на безопасность ИИ?
Фокус этих тестов сосредоточен на снижении рисков, связанных с неправильным использованием ИИ, особенно в кибербезопасности.

8. С кем сотрудничает АИСИ, чтобы получить экспертные знания в области кибербезопасности?
АИСИ сотрудничает с Центром национальной кибербезопасности при штаб-квартире правительства по связям с общественностью (GCHQ), чтобы получить экспертные знания в области кибербезопасности.

9. Какие возможности приобретает АИСИ за миллион фунтов стерлингов?
АИСИ выделил 1 миллион фунтов стерлингов на приобретение возможностей для тестирования подверженности ИИ-чатботов к взлому и защиты от целенаправленных фишинговых атак.

10. Какие автоматизированные системы разрабатывает АИСИ?
АИСИ разрабатывает автоматизированные системы для обратной разработки исходного кода, что позволяет тщательно оценивать модели ИИ.

11. Как Google DeepMind выразил свое готовность сотрудничать с АИСИ?
Google DeepMind выразила свою готовность сотрудничать с АИСИ с целью улучшения оценки и практик безопасности моделей ИИ.

12. На что фокусируется правительство в области технологий искусственного интеллекта (ИИ)?
Фокус правительства на обязательных требованиях и сотрудничестве с отраслью направлен на обеспечение безопасности и ответственности в быстрорастущей области технологий искусственного интеллекта (ИИ).

Определения:
— ИИ: Искусственный интеллект
— AISI: Институт безопасности ИИ
— Генеративные модели ИИ: Модели ИИ, способные создавать новый контент или генерировать новые данные на основе существующих шаблонов или информации.
— Саморегулирование: Возможность отрасли или организации регулировать саму себя без внешнего вмешательства правительства.

Связанные ссылки:
— OpenAI
— Google DeepMind
— Microsoft
— Meta
— Штаб-квартира правительства по связям с общественностью (GCHQ)

The source of the article is from the blog enp.gr

Privacy policy
Contact