UK Tech-Gigászok az AI-biztonsági tesztek felgyorsítását követelik

Az OpenAI, a Google DeepMind, a Microsoft és a Meta nevű tech-gigászok arra buzdítják az Egyesült Királyság kormányát, hogy felgyorsítsa az mesterséges intelligencia (AI) rendszerek biztonsági tesztelését. Míg a vállalatok elkötelezték magukat az AI Biztonsági Intézet (AI Safety Institute – AISI) által végzett legújabb generatív AI modelleik áttekintésére, kérik a tesztek, időkeretek és visszajelzési folyamat tisztázását.

Ezek a önkéntes kötelezettségvállalások, ellentétben a jogilag kötelező erejű megállapodásokkal, rávilágítanak az iparág önregulációra alapozásának kihívásaira a gyorsan változó AI területén. A kormány azonban hangsúlyozta a jövőbeni kötelező erejű követelmények szükségességét, hogy az AI fejlesztőket el lehessen számoltatni a rendszerbiztonságért.

Az AISI-t, amely kulcsfontosságú szerepet játszik Rishi Sunak miniszterelnök azon elképzelésében, hogy az Egyesült Királyság a mesterséges intelligencia potenciális kockázatainak kezelésében vezető szerepet játsszon, a kormány támogatja. Az AISI már megkezdte a meglévő AI modellek tesztelését. Továbbá hozzáférése van még be nem mutatott modellekhez, például a Google Gemini Ultra-hoz. Ezeknek a teszteknek a középpontjában az AI visszaéléssel járó kockázatok enyhítése áll, különösen a kiberbiztonság terén. A Nemzeti Kibervédelmi Központtal (National Cyber Security Centre) való együttműködés a Kormány Kommunikációs Főhadiszállásán (Government Communications Headquarters – GCHQ) biztosít szakértelmet ezen kritikus területen.

A legutóbbi kormányzati szerződések azt mutatják, hogy az AISI körülbelül 1 millió fontot különített el képességek beszerzésére annak érdekében, hogy tesztelje az AI chatbotok fogságolhatóságát és a lándzsaküldő (spear-phishing) támadások elleni védelmet. Emellett az AISI automatizált rendszereket fejleszt, hogy megkönnyítse az AI modellek forráskódjának visszafejtését, lehetővé téve az AI modellek alapos értékelését.

A Google DeepMind kifejezte elkötelezettségét az AISI-val való együttműködés mellett, céljuk pedig az AI modellek értékelésének és biztonsági gyakorlatainak fejlesztése.

Összességében az Egyesült Királyság tech-gigászainak nyomása az AI biztonsági tesztek tekintetében tükrözi a felelős fejlesztés és szabályozás fontosságát a potenciális AI kockázatok hatékony kezelése érdekében. A kormány a követelmények szilárdítására és az iparággal való együttműködésre összpontosít, hogy biztosítsa a biztonságot és a felelősséget az AI technológia gyorsan növekvő területén.

The source of the article is from the blog mivalle.net.ar

Privacy policy
Contact