АИ компаниите призовават британското правителство да подобри процедурите за тестване на безопасността

Няколко водещи АИ компании, включително OpenAI, Google DeepMind, Microsoft и Meta, призоваха британското правителство да ускори процедурите за тестване на безопасността на АИ системите. Тези компании са се съгласили да позволят оценяването на своите АИ модели от ноа създадения Институт за безопасност на АИ (AISI), но изразиха загриженост относно текущата скорост и прозрачност на процеса на оценка. Въпреки че компаниите са готови да се справят със забележките, открити от AISI, те не са задължени да отлагат или променят пускането на технологиите си въз основа на резултатите от оценката.

Един от основните спорни въпроси за АИ доставчиците е липсата на яснота относно протоколите за тестване. Те търсят по-подробна информация за провежданите тестове, продължителността на оценката и механизма за обратна връзка. Има и несигурност относно това дали тестовете трябва да бъдат повтаряни всеки път, когато има малка актуализация на АИ модела, изискване, което разработчиците на ИИ биха могли да считат за тежко.

Изразените от тези компании запаси са обосновани, като се има предвид неяснотата около процеса на оценка. С други правителства, които обмислят подобни оценки на безопасността на АИ, всяка настояща обърканост в процедурите на обединеното кралство ще се засили, предвид като всеки се възползва от подобни изисквания към разработчиците на ИИ.

Според Financial Times, британското правителство вече е започнало тестване на модели за изкуствен интелект чрез сътрудничество със съответните разработчици. Тестването включва достъп до сложни модели на изкуствен интелект за тестване преди пускането им в бърза експлоатация, дори и за непредставени модели като Google Gemini Ultra. Тази инициатива беше едно от ключовите споразумения, подписани от компаниите на АИ Безопасния съмит в Обединеното кралство през ноември.

От съществено значение е британското правителство и другите регулиращи органи да работят отблизо с АИ компаниите, за да се установят ясни, стандартизирани процедури за тестване на безопасността. Прозрачните и ефективни оценки ще не само засилят доверието в АИ технологиите, но и ще гарантират отговорното използване на тези системи в различни сектори.

FAQ Секция

1. Кои компании призовават британското правителство да ускори процедурите за тестване на безопасността на АИ системите?
Няколко водещи АИ компании, включително OpenAI, Google DeepMind, Microsoft и Meta, направиха този призив.

2. Каква е ролята на новооснования Институт за безопасност на АИ (AISI)?
Компаниите се съгласиха да позволят оценяване на своите АИ модели от страна на AISI.

3. Ще отлагат ли или променят ли технологиите компаниите въз основа на резултатите от оценката?
Не, компаниите не са задължени да отлагат или променят пускането на технологиите си въз основа на резултатите от оценката.

4. Какви са притесненията, изразени от тези компании относно процеса на оценка?
Компаниите изразиха загриженост относно текущата скорост, прозрачността и липсата на яснота относно протоколите за тестване. Те търсят по-подробна информация за тестовете, провеждани, продължителността на оценката и механизма за обратна връзка.

5. Има ли несигурност относно това дали тестването трябва да се повтаря за малки актуализации на моделите на изкуствен интелект?
Да, има несигурност относно това дали тестването трябва да се повтаря всеки път, когато има малка актуализация на модела на изкуствен интелект, което разработчиците на ИИ могат да считат за тежко.

Свързани връзки

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact