Britští technologičtí giganti volají po testech bezpečnosti umělé inteligence

Britští technické giganty, včetně OpenAI, Google DeepMind, Microsoft a Meta, vyzývají britskou vládu, aby urychleně provedla testy bezpečnosti systémů umělé inteligence (AI). Tyto společnosti se zavázaly otevřít své nejnovější generativní modely AI k posouzení nově zřízeným AI Safety Institute (AISI), ale žádají jasnost ohledně testů, časových harmonogramů a procesu zpětné vazby.

Na rozdíl od právně závazných dohod tyto dobrovolné závazky poukazují na výzvy spojené se spoléháním na samoregulaci průmyslu v rychle se rozvíjejícím oboru AI. V odpovědi na to britská vláda zdůrazňuje potřebu budoucích závazných požadavků, které by nutily vývojáře AI nést odpovědnost za bezpečnost systému.

Vládou podporovaný AISI, který sehrává klíčovou roli ve vizi premiéra Rishiho Sunaka, aby se z Británie stala lídrem v řešení potenciálních rizik AI, již začal testovat stávající modely AI. Má také přístup k nezveřejněným modelům, jako například Google Gemini Ultra. Tyto testy se zaměřují na snižování rizik spojených s nesprávným využitím AI, zejména v kybernetické bezpečnosti. Spolupráce s Národním centrem kybernetické bezpečnosti působícím pod správou Government Communications Headquarters (GCHQ) poskytuje odborné know-how v této důležité oblasti.

Nedávné vládní smlouvy odhalují, že AISI alokovala 1 milion liber na nákup schopností pro testování náchylnosti AI chatbotů k jailbreaku a zajištění proti útokům typu spear-phishing. Kromě toho AISI vyvíjí automatizované systémy pro usnadnění zpětného inženýrství zdrojového kódu, což umožňuje důkladné hodnocení modelů AI.

Google DeepMind vyjádřil svůj závazek spolupracovat s AISI s cílem zlepšit hodnocení a bezpečnostní postupy modelů AI. OpenAI a Meta se však odmítly vyjádřit k této záležitosti.

Celkově lze říci, že snaha britských technologických gigantů o testování bezpečnosti AI odráží důležitost odpovědného vývoje a regulace s cílem účinně řešit potenciální rizika spojená s pokroky v oblasti AI. Vláda se zaměřuje na závazné požadavky a spolupráci průmyslu s cílem zajistit bezpečnost a odpovědnost v rychle rostoucím oboru AI technologií.

FAQ: Britští technologičtí giganti vyzývají k testům bezpečnosti AI

1. Čeho vyzývají britští technologičtí giganti britskou vládu, aby urychlila?
Britští technologičtí giganti, včetně OpenAI, Google DeepMind, Microsoft a Meta, vyzývají britskou vládu, aby urychlila testy bezpečnosti systémů umělé inteligence (AI).

2. Jaké závazky učinily tyto společnosti?
Tyto společnosti se zavázaly otevřít své nejnovější generativní modely AI k posouzení nově zřízeným AI Safety Institute (AISI).

3. Jaké výzvy přináší spoléhání na samoregulaci průmyslu v oblasti AI?
Dobrovolné závazky poukazují na výzvy spojené se spoléháním na samoregulaci průmyslu v rychle se rozvíjejícím oboru AI.

4. Na co britská vláda zdůrazňuje v odpovědi?
Britská vláda zdůrazňuje potřebu budoucích závazných požadavků, které by nutily vývojáře AI nést odpovědnost za bezpečnost systému.

5. Jakou roli hraje AISI v britské vládní vizi?
AISI, podporovaná vládou, hraje klíčovou roli ve vizi premiéra Rishiho Sunaka, aby se z Británie stala lídrem v řešení potenciálních rizik AI.

6. Čím již AISI začala testovat?
AISI již začala testovat stávající modely AI, včetně přístupu k nezveřejněným modelům, jako například Google Gemini Ultra.

7. Na jaká rizika se zaměřují testy bezpečnosti AI?
Tyto testy se zaměřují na snižování rizik spojených s nesprávným využitím AI, zejména v kybernetické bezpečnosti.

8. S kým AISI spolupracuje, aby poskytla odborné know-how v kybernetické bezpečnosti?
AISI spolupracuje s National Cyber Security Centre sídlícím pod správou Government Communications Headquarters (GCHQ), aby poskytlo odborné know-how v kybernetické bezpečnosti.

9. Jaké schopnosti AISI získává s částkou 1 milion liber?
AISI alokovala 1 milion liber na nákup schopností pro testování náchylnosti AI chatbotů k jailbreaku a zajištění proti útokům typu spear-phishing.

10. Jaké automatické systémy vyvíjí AISI?
AISI vyvíjí automatické systémy, které usnadňují zpětné inženýrství zdrojového kódu, umožňující důkladné hodnocení modelů AI.

11. Jaký závazek vyjádřilo Google DeepMind ve vztahu k AISI?
Google DeepMind vyjádřil svůj závazek spolupracovat s AISI s cílem zlepšit hodnocení a bezpečnostní postupy modelů AI.

12. Na čem se zaměřuje vláda v oboru AI technologií?
Vláda se zaměřuje na závazné požadavky a spolupráci průmyslu pro zajištění bezpečnosti a odpovědnosti v rychle rostoucím oboru AI technologií.

Definice:
– AI: Umělá inteligence
– AISI: AI Safety Institute
– Modely generativní umělé inteligence: Modely AI, které mohou vytvářet nový obsah nebo generovat nová data na základě existujících vzorců nebo informací.
– Samoregulace: Schopnost průmyslu nebo organizace regulovat sebe sama bez vnějšího zásahu vlády.

Související odkazy:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Government Communications Headquarters (GCHQ)

The source of the article is from the blog bitperfect.pe

Privacy policy
Contact