Didžiosios Britanijos technologijų gigantai įtaria saugumo testams dirbant dirbtinei intelektui

Didžiosios Britanijos technologijų gigantai, įskaitant OpenAI, Google DeepMind, Microsoft ir Meta, ragina Didžiosios Britanijos vyriausybę pagreitinti dirbtinio intelekto (DI) sistemų saugumo testus. Nors šios įmonės įsipareigojo atvėsti savo naujausius generatyvinius DI modelius per peržiūrą Ypatingasis intelekto saugumo institutas (AISI), jos siekia aiškumo dėl testų, laikotarpių ir grįžtamųjų ryšių proceso.

Skirtingai nei teisiškai privalomi susitarimai, šie savanoriški įsipareigojimai pabrėžia iššūkius, su kuriais susiduria pramonė savianreguliacijos srityje sparčiai besivystančioje DI srityje. Atsakydama, Didžiosios Britanijos vyriausybė pabrėžia poreikį ateityje primesti įsipareigojimus, kad DI kūrėjai būtų atsakingi už sistemos saugumą.

Vyriausybės remiamas AISI, kuris atlieka svarbų vaidmenį premjero Rishio Sunako vizijoje, kad Didžioji Britanija taptų lydere sprendžiant DI potencialias problemas, jau pradėjo testuoti esamus DI modelius. Ji taip pat turi prieigą prie neskelbiamų modelių, pvz., „Google“ „Gemini Ultra“. Šie testai orientuoti į rizikos valdymą, susijusią su DI piktnaudžiavimu, ypač kibernetinio saugumo srityje. Bendradarbiavimas su Nacionaliniu kibernetinio saugumo centru Didžiojo komunikacijų štabo (GCHQ) vyriausybėje suteikia ekspertizę šioje svarbioje srityje.

Neseniai vyriausybės sutartys atskleidžia, kad AISI yra skirtas 1 mln. svarų perkelti įrangą AI pokalbių robotams, jautriems įkalčių įvykiui ir apsaugant nuo šerpų gaudymo atakų. Be to, AISI kuriama automatizuota sistema, kuri palengvins pirminio programinio kodo persidengimo atlikimą, leidžianti atidžiai įvertinti DI modelius.

„Google DeepMind“ pareiškė, kad sieks bendradarbiauti su AISI, siekdama pagerinti DI modelių vertinimą ir saugos praktikas. Tačiau OpenAI ir Meta atsisakė komentuoti šį klausimą.

Aptariant Didžiosios Britanijos technologijų gigantų pastangas dėl DI saugumo testų, aiškiai matyti, kaip svarbus yra atsakingas vystymas ir reguliavimas, siekiant veiksmingai įveikti su DI pažangomis susijusias potencialias rizikas. Vyriausybės dėmesys privalomiesiems reikalavimams ir pramonės bendradarbiavimas siekia užtikrinti saugumą ir atskaitingumą sparčiai augančioje DI technologijos srityje.

DUK: Didžiosios Britanijos technologijų gigantai ragina atlikti DI saugumo testus

1. Ką Didžiosios Britanijos technologijų gigantai ragina Didžiosios Britanijos vyriausybę pagreitinti?
Didžiosios Britanijos technologijų gigantai, įskaitant OpenAI, Google DeepMind, Microsoft ir Meta, ragina Didžiosios Britanijos vyriausybę pagreitinti saugumo testus dirbtinio intelekto (DI) sistemoms.

2. Kokius įsipareigojimus šios įmonės padarė?
Įmonės įsipareigojo atvėsti savo naujausius generatyvinius DI modelius per peržiūrą Ypatingasis intelekto saugumo institutas (AISI).

3. Kokios problemos susijusios su pramoninės savianreguliacijos taikymu DI srityje?
Savanoriški įsipareigojimai pabrėžia iššūkius, su kuriais susiduria pramonė savianreguliacijos srityje sparčiai besivystančioje DI srityje.

4. Kuo Didžiosios Britanijos vyriausybė pabrėžia savo atsakyme?
Didžiosios Britanijos vyriausybė pabrėžia poreikį primesti ateities privalomus reikalavimus, kad DI kūrėjai būtų atsakingi už sistemos saugumą.

5. Kokį vaidmenį AISI vaidina Didžiosios Britanijos vyriausybės vizijoje?
AISI, kurį remia vyriausybė, atlieka svarbų vaidmenį premjero Rishio Sunako vizijoje, kad Didžioji Britanija taptų lydere sprendžiant DI potencialias problemas.

6. Kuo AISI jau pradėjo testuoti?
AISI jau pradėjo testuoti esamus DI modelius, įskaitant prieigą prie neskelbiamų modelių, pvz., „Google Geminos Ultra“.

7. Kokie rizikos valdymo aspektai nagrinėjami DI saugumo testuose?
Šių testų dėmesys yra kibernetinio saugumo srityje ir susijęs su rizikos mažinimu, susijusiu su DI piktnaudžiavimu.

8. Su kuo AISI bendradarbiauja, kad būtų suteiktas kibernetinio saugumo ekspertizės?
AISI bendradarbiauja su Nacionaliniu kibernetinio saugumo centru Didžiojo komunikacijų štabo (GCHQ), kad būtų užtikrinta ekspertizė kibernetinio saugumo srityje.

9. Kokių galimybių AISI perka už 1 mln. svarų?
AISI skirta 1 mln. svarų perkelti įrangą AI pokalbių robotams, jautriems įkalčių įvykiui ir apsaugant nuo šerpų gaudymo atakų.

10. Kokią automatizuotą sistemą AISI kuri?
AISI kuriama automatizuota sistema, kuri palengvins pirminio programinio kodo persidengimo atlikimą, tai leis atlikti išsamią DI modelių vertinimą.

11. Kaip „Google DeepMind“ pareiškė savo įsipareigojimą AISI?
„Google DeepMind“ pareiškė, kad sieks bendradarbiauti su AISI siekdama pagerinti DI modelių vertinimą ir saugos praktikas.

12. Kuo vyriausybės dėmesys yra DI technologijos srityje?
Vyriausybės dėmesys skiriamas privalomiesiems reikalavimams ir pramonės bendradarbiavimui, siekiant užtikrinti saugumą ir atskaitingumą sparčiai augančioje DI technologijos srityje.

Apibrėžimai:
– DI: Dirbtinis intelektas
– AISI: Intelekto saugumo institutas
– Generatyvūs DI modeliai: DI modeliai, kurie gali sukurti naują turinį arba pagal egzistuojančius modelius generuoti naują informaciją.
– Savianreguliacija: Pramonės ar organizacijos galimybė save reguliuoti be valstybinio valdymo intervencijos.

Susiję nuorodos:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Didžiojo komunikacinio štabo (GCHQ) vyriausybėje

The source of the article is from the blog aovotice.cz

Privacy policy
Contact