Компании по искусственному интеллекту призывают британское правительство улучшить процедуры проверки безопасности

Несколько ведущих компаний по искусственному интеллекту, включая OpenAI, Google DeepMind, Microsoft и Meta, призывают британское правительство ускорить процедуры проверки безопасности систем искусственного интеллекта. Эти компании согласились на оценку своих моделей искусственного интеллекта, проводимую новообразованным Институтом безопасности ИИ (AI Safety Institute, AISI), но выразили свои опасения относительно текущей скорости и прозрачности процесса оценки. Хотя компании готовы исправлять выявленные AISI недостатки, они не обязаны откладывать или изменять выпуск своих технологий на основе результатов оценки.

Одним из основных спорных вопросов для поставщиков ИИ является неясность в отношении протоколов тестирования. Они ищут более подробную информацию о проводимых тестах, продолжительности оценки и механизме обратной связи. Также существуют сомнения о том, нужно ли повторять тестирование каждый раз при незначительном обновлении модели ИИ, что разработчики ИИ могут рассматривать как обременительное требование.

Высказанные компаниями опасения обоснованы, учитывая неопределенность, окружающую процесс оценки. С учетом того, что другие правительства рассматривают аналогичные оценки безопасности ИИ, любое существующее недопонимание в процедурах Великобритании только усилится по мере того, как другие органы начнут предъявлять сходные требования к разработчикам ИИ.

Согласно информации Financial Times, британское правительство уже начало тестирование моделей ИИ совместно с разработчиками. Тестирование включает доступ к продвинутым моделям ИИ для предварительного тестирования, даже для неопубликованных моделей, таких как Gemini Ultra от Google. Эта инициатива была одной из ключевых соглашений, подписанных компаниями на проводимом в ноябре Sammit по безопасности ИИ в Великобритании.

Необходимо, чтобы правительство Великобритании и другие управляющие органы тесно сотрудничали с компаниями по искусственному интеллекту для установления ясных, стандартизированных процедур проверки безопасности. Прозрачные и эффективные оценки не только усилят доверие к технологиям искусственного интеллекта, но и обеспечат ответственное внедрение этих систем в различных секторах.

Часто задаваемые вопросы

1. Какие компании призывают британское правительство ускорить процедуры проверки безопасности систем искусственного интеллекта?
Этот призыв выдвинули несколько ведущих компаний по искусственному интеллекту, включая OpenAI, Google DeepMind, Microsoft и Meta.

2. Какая роль новообразованного Института безопасности ИИ (AISI)?
Компании согласились на оценку своих моделей искусственного интеллекта AISI.

3. Будут ли компании откладывать или изменять выпуск своих технологий на основе результатов оценки?
Нет, компании не обязаны откладывать или изменять выпуск своих технологий на основе результатов оценки.

4. Какие опасения высказали эти компании относительно процесса оценки?
Компании выразили опасения относительно текущей скорости, прозрачности и неясности в протоколах тестирования. Они ищут более подробную информацию о проводимых тестах, продолжительности оценки и механизме обратной связи.

5. Существует ли неопределенность относительно повторного тестирования для незначительных обновлений моделей ИИ?
Да, существует неопределенность относительно повторного тестирования каждый раз при незначительном обновлении модели ИИ, что разработчики ИИ могут рассматривать как обременительное требование.

Ключевые термины/жаргон

— ИИ: Искусственный интеллект.
— Институт безопасности ИИ (AISI): Новообразованный институт, ответственный за оценку моделей искусственного интеллекта на безопасность.
— Модель ИИ: Относится к системе искусственного интеллекта или алгоритму, разработанному компаниями.
— Протоколы тестирования: Порядок и руководства, которыми руководствуются для оценки и тестирования моделей ИИ.
— Предварительное тестирование: Тестирование, проводимое перед официальным внедрением или выпуском модели ИИ.

Связанные ссылки

— OpenAI
— Google DeepMind
— Microsoft
— Meta
— Financial Times

[вставьте ссылку на видео]

The source of the article is from the blog rugbynews.at

Privacy policy
Contact