AI Cégepek Az Egyesült Királyság Kormányához fordulnak, hogy javítsák a Biztonsági Tesztelést

Több vezető AI cége, köztük az OpenAI, a Google DeepMind, a Microsoft és a Meta, felhívást intéztek az Egyesült Királyság kormányához, hogy felgyorsítsák az AI rendszerek biztonsági tesztelési eljárásait. Ezek a vállalatok beleegyeztek abba, hogy új AI Biztonsági Intézet (AISI) értékelje AI modelleiket, de kétségeiket fejezték ki a jelenlegi értékelési folyamat sebessége és átláthatósága miatt. Habár a cégek hajlandóak bármilyen hibát orvosolni az AISI által azonosítottak alapján, nem kötelesek késleltetni vagy módosítani technológiáik kiadását az értékelés eredményei alapján.

Az AI szolgáltatók számára egyik fő vitapont az értékelési protokollok tisztázatlansága. További részletes információkat kérnek a tesztelések jellegéről, az értékelés időtartamáról és a visszajelzés mechanizmusáról. Továbbá bizonytalan, hogy a tesztelést újra el kell végezni-e minden alkalommal, amikor egy AI modellt kisebb javítások érintenek, amit az AI fejlesztők terhet jelentő követelménynek tarthatnak.

A cégek által kifejezett fenntartások érvényesek tekintve a ködös értékelési folyamatot. Más kormányok hasonló AI biztonsági felmérések lehetőségét tárgyalják, így az Egyesült Királyság eljárásainak jelenlegi zavarai csak fokozódnak, ahogy egyre több hatóság kezdi el követelni az AI fejlesztőtől hasonló követelmények teljesítését.

A Financial Times szerint az Egyesült Királyság kormánya már megkezdte az AI modellek tesztelését az érintett fejlesztőkkel való együttműködés keretében. A tesztelés magában foglalja a fejlett AI modellek hozzáférését a telepítés előtti teszteléshez, még az olyan kiadatlan modellek esetében is, mint a Google Gemini Ultra. Ez az intézkedés azon megállapodások egyike volt, amit a vállalatok aláírtak az Egyesült Királyság AI Biztonsági Csúcstalálkozóján, ami novemberben zajlott.

Létfontosságú az Egyesült Királyság kormányának és más irányító szerveknek, hogy szorosan együttműködjenek az AI cégekkel, hogy világos, szabványosított biztonsági tesztelési eljárásokat hozzanak létre. Átlátható és hatékony értékelések nem csak javítják az AI technológiákba vetett bizalmat, de biztosítják ezeknek a rendszereknek a felelős bevezetését különböző iparágakban.

Gyakran Ismételt Kérdések

1. Melyik cégek szólították fel az Egyesült Királyság kormányát, hogy felgyorsítsa az AI rendszerek biztonsági tesztelési eljárásait?
Több vezető AI cég, köztük az OpenAI, a Google DeepMind, a Microsoft és a Meta mondta ezt.

2. Mi a szerepe az újonnan alakult AI Biztonsági Intézetnek (AISI)?
A cégek beleegyeztek, hogy az AISI értékelje az AI modelleiket.

3. Késleltetik vagy módosítják a cégek technológiáik kiadását az értékelési eredmények alapján?
Nem, a cégek nincsenek kötelesek késleltetni vagy módosítani technológiáik kiadását az értékelés eredményei alapján.

4. Milyen aggodalmakat fogalmaztak meg ezek a cégek az értékelési folyamat kapcsán?
A cégek aggodalmukat fejezték ki a jelenlegi ütem, átláthatóság és a tesztelési protokollok tisztázatlansága miatt. Részletesebb információkat kérnek a tesztek jellegéről, az értékelés időtartamáról és a visszajelzés mechanizmusáról.

5. Bizonytalanság van arról, hogy a tesztelést meg kell-e ismételni kisebb frissítések esetén az AI modelleknél?
Igen, bizonytalanság van arról, hogy a tesztelést meg kell-e ismételni minden egyes alkalommal, amikor kisebb frissítés történik az AI modellen, amit az AI fejlesztők terhet jelentő követelményként értelmezhetnek.

Kulcsszavak/Szakzsargon

– AI: Az Artificial Intelligence (Mesterséges Intelligencia) rövidítése.
– AI Biztonsági Intézet (AISI): Egy újonnan alakult intézet, amely az AI modellek biztonságosságának értékelését végzi.
– AI modell: Azok az intelligencia rendszerek vagy algoritmusok, amelyeket a cégek kifejlesztenek.
– Tesztelési protokollok: Az AI modellek értékelése és tesztelése során követett eljárások és irányelvek.
– Telepítés előtti tesztelés: A tesztelés, amelyet az AI modell hivatalos telepítése vagy kiadása előtt végeznek.

Kapcsolódó linkek

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact