Velikani britanske tehnologije traže testiranje sigurnosti umjetne inteligencije

Velikani britanske tehnologije, uključujući OpenAI, Google DeepMind, Microsoft i Meta, pozivaju britansku vladu da ubrza testiranje sigurnosti sustava umjetne inteligencije (UI). Iako su se tvrtke obvezale otvoriti svoje najnovije generativne modele UI-a na pregled u novoosnovanom Institutu sigurnosti UI-a (AISI), traže jasnoću o testovima, vremenskim okvirima i procesu povratne informacije uključenom u to.

Ovi dobrovoljni angažmani, za razliku od pravnih obveza, ističu izazove oslanjanja na samoregulaciju industrije u brzo mijenjajućem području UI-a. U odgovoru, britanska vlada je naglasila potrebu za budućim obvezujućim zahtjevima kako bi se developerska odgovornost za sigurnost sustava UI-a mogla uspostaviti.

AISI, podržan od strane vlade, koji igra ključnu ulogu u viziji premijera Rishija Sunaka za UK kao lidera u suočavanju s potencijalnim rizicima UI-a, već je započeo testiranje postojećih UI modela. Također ima pristup neobjavljenim modelima, poput Googleove Gemini Ultra. Fokus ovih testova je na ublažavanju rizika povezanih s zloupotrebom UI-a, posebno u području cyber sigurnosti. Suradnja s Nacionalnim centrom za cyber sigurnost u okviru Glavnog stožera za komunikacije vlade (GCHQ) pruža stručnost u ovom važnom području.

Nedavni vladini ugovori otkrivaju da je AISI dodijelio 1 milijun funti za nabavu sposobnosti za testiranje osjetljivosti AI chatbotova na probijanje zaštite i zaštita od napada spear-phishingom. Osim toga, AISI razvija automatizirane sustave za olakšavanje reverznog inženjeringa izvornog koda, omogućavajući temeljitu evaluaciju UI modela.

Google DeepMind je izrazio svoje opredjeljenje za suradnju s AISI kako bi unaprijedili evaluaciju i sigurnosne prakse UI modela. Međutim, OpenAI i Meta su odbili komentirati ovu temu.

Sveukupno, inicijativa britanskih tehnoloških divova za testiranje sigurnosti UI-a odražava važnost odgovornog razvoja i regulacije kako bi se učinkovito adresirali potencijalni rizici povezani s napredovanjem UI tehnologije. Fokus vlade na obvezujuće zahtjeve i suradnju industrije ima za cilj osigurati sigurnost i odgovornost u brzo rastućem području AI tehnologije.

FAQ: Velikani britanske tehnologije pozivaju na testiranje sigurnosti UI-a

1. Za što britanski tehnološki divovi pozivaju britansku vladu da ubrza?
Velikani britanske tehnologije, uključujući OpenAI, Google DeepMind, Microsoft i Meta, pozivaju britansku vladu da ubrza testiranje sigurnosti sustava umjetne inteligencije (UI).

2. Koje su obveze koje su ove tvrtke preuzele?
Tvrtke su se obvezale otvoriti svoje najnovije generativne modele UI-a na pregled u novoosnovanom Institutu sigurnosti UI-a (AISI).

3. Koje su poteškoće oslanjanja na samoregulaciju industrije u području UI-a?
Dobrovoljne obveze ističu izazove oslanjanja na samoregulaciju industrije u brzo mijenjajućem području UI-a.

4. Na što britanska vlada naglašava u odgovoru?
Britanska vlada naglašava potrebu za budućim obvezujućim zahtjevima kako bi se developerska odgovornost za sigurnost sustava UI-a mogla uspostaviti.

5. Koju ulogu ima AISI u viziji britanske vlade?
AISI, podržan od strane vlade, igra ključnu ulogu u viziji premijera Rishija Sunaka za UK kao lidera u suočavanju s potencijalnim rizicima UI-a.

6. Što je već počeo testirati AISI?
AISI je već započeo testiranje postojećih UI modela, uključujući pristup neobjavljenim modelima kao što je Googleova Gemini Ultra.

7. Na što se usredotočuju testovi sigurnosti UI-a?
Fokus ovih testova je na ublažavanju rizika povezanih s zloupotrebom UI-a, posebno u području cyber sigurnosti.

8. S kim AISI surađuje kako bi pružio stručnost u cyber sigurnosti?
AISI surađuje s Nacionalnim centrom za cyber sigurnost u okviru Glavnog stožera za komunikacije vlade (GCHQ) kako bi pružio stručnost u cyber sigurnosti.

9. Koje sposobnosti AISI nabavlja s 1 milijun funti?
AISI je dodijelio 1 milijun funti za nabavu sposobnosti za testiranje osjetljivosti AI chatbotova na probijanje zaštite i zaštita od napada spear-phishingom.

10. Koje automatizirane sustave AISI razvija?
AISI razvija automatizirane sustave za olakšavanje reverznog inženjeringa izvornog koda, omogućavajući temeljitu evaluaciju UI modela.

11. Kako je Google DeepMind izrazio svoje opredjeljenje za AISI?
Google DeepMind je izrazio svoje opredjeljenje za suradnju s AISI kako bi unaprijedili evaluaciju i sigurnosne prakse UI modela.

12. Koje je usmjerenje vlade u području AI tehnologije?
U središtu pozornosti vlade je uspostavljanje obvezujućih zahtjeva i suradnje industrije kako bi se osigurala sigurnost i odgovornost u brzo rastućem području AI tehnologije.

Definicije:
– UI: Umjetna inteligencija
– AISI: Institut sigurnosti UI-a
– Generativni modeli UI-a: UI modeli koji mogu stvarati novi sadržaj ili generirati nove podatke na temelju postojećih uzoraka ili informacija.
– Samoregulacija: sposobnost industrije ili organizacije da se sama regulira bez vanjske intervencije vlade.

Povezane poveznice:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Glavni stožer za komunikacije vlade (GCHQ)

The source of the article is from the blog papodemusica.com

Privacy policy
Contact