Az OpenAI, a Google DeepMind, a Microsoft és a Meta nevű tech-gigászok arra buzdítják az Egyesült Királyság kormányát, hogy felgyorsítsa az mesterséges intelligencia (AI) rendszerek biztonsági tesztelését. Míg a vállalatok elkötelezték magukat az AI Biztonsági Intézet (AI Safety Institute – AISI) által végzett legújabb generatív AI modelleik áttekintésére, kérik a tesztek, időkeretek és visszajelzési folyamat tisztázását.
Ezek a önkéntes kötelezettségvállalások, ellentétben a jogilag kötelező erejű megállapodásokkal, rávilágítanak az iparág önregulációra alapozásának kihívásaira a gyorsan változó AI területén. A kormány azonban hangsúlyozta a jövőbeni kötelező erejű követelmények szükségességét, hogy az AI fejlesztőket el lehessen számoltatni a rendszerbiztonságért.
Az AISI-t, amely kulcsfontosságú szerepet játszik Rishi Sunak miniszterelnök azon elképzelésében, hogy az Egyesült Királyság a mesterséges intelligencia potenciális kockázatainak kezelésében vezető szerepet játsszon, a kormány támogatja. Az AISI már megkezdte a meglévő AI modellek tesztelését. Továbbá hozzáférése van még be nem mutatott modellekhez, például a Google Gemini Ultra-hoz. Ezeknek a teszteknek a középpontjában az AI visszaéléssel járó kockázatok enyhítése áll, különösen a kiberbiztonság terén. A Nemzeti Kibervédelmi Központtal (National Cyber Security Centre) való együttműködés a Kormány Kommunikációs Főhadiszállásán (Government Communications Headquarters – GCHQ) biztosít szakértelmet ezen kritikus területen.
A legutóbbi kormányzati szerződések azt mutatják, hogy az AISI körülbelül 1 millió fontot különített el képességek beszerzésére annak érdekében, hogy tesztelje az AI chatbotok fogságolhatóságát és a lándzsaküldő (spear-phishing) támadások elleni védelmet. Emellett az AISI automatizált rendszereket fejleszt, hogy megkönnyítse az AI modellek forráskódjának visszafejtését, lehetővé téve az AI modellek alapos értékelését.
A Google DeepMind kifejezte elkötelezettségét az AISI-val való együttműködés mellett, céljuk pedig az AI modellek értékelésének és biztonsági gyakorlatainak fejlesztése.
Összességében az Egyesült Királyság tech-gigászainak nyomása az AI biztonsági tesztek tekintetében tükrözi a felelős fejlesztés és szabályozás fontosságát a potenciális AI kockázatok hatékony kezelése érdekében. A kormány a követelmények szilárdítására és az iparággal való együttműködésre összpontosít, hogy biztosítsa a biztonságot és a felelősséget az AI technológia gyorsan növekvő területén.
The source of the article is from the blog mivalle.net.ar