AI uzņēmumi aicina Lielbritānijas valdību uzlabot drošības testēšanu

Vairāki vadošie AI uzņēmumi, tostarp OpenAI, Google DeepMind, Microsoft un Meta, aicina Lielbritānijas valdību paātrināt AI sistēmu drošības testēšanas procedūras. Šie uzņēmumi ir piekrituši ļaut savus AI modeļus novērtēt nesen izveidotajai AI Drošības institūta (AISI) pārraugu iestādei, bet viņi ir izteikuši bažas par pašreizējo novērtēšanas procesa tempu un pārredzamību. Lai gan uzņēmumi ir gatavi risināt jebkādas trūkumus, kas tiek atklāti AISI izvērtējumā, viņi nav saistīti aizkavēt vai modificēt savu tehnoloģiju izlaišanu, balstoties uz izvērtējuma rezultātiem.

Kā viens no galvenajiem strīdu jautājumiem AI piegādātājiem ir neskaidrība par izmēģinājumu protokoliem. Viņi cenšas iegūt sīkāku informāciju par veiktajiem testiem, izvērtēšanas ilgumu un atsauksmju mehānismu. Pastāv arī neizpratne par to, vai pārbaude jāatkārto katru reizi, kad AI modelis tiek nedaudz atjaunots, prasība, ko AI izstrādātāji var uzskatīt par apgrūtinošu.

Šo uzņēmumu paustās domstarpības ir pamatotas, ņemot vērā novērtēšanas procesa neskaidrību. Ar citām valdībām, kas izskata līdzīgus AI drošības novērtējumus, pašreizējā neizpratne par Apvienotās Karalistes procedūrām tikai pastiprinās, jo arvien vairāk iestādes sāk likt salīdzināmus prasības AI izstrādātājiem.

Finanšu laikraksts ziņo, ka Lielbritānijas valdība jau ir sākusi izmēģināt AI modeļus, sadarbojoties ar attiecīgajiem izstrādātājiem. Pārbaudes ietver piekļuvi sarežģītiem AI modeļiem pirms izvietošanas, pat neizlaistiem modeļiem, piemēram, Google Gemini Ultra. Šī iniciatīva bija viena no galvenajām vienošanām, kas tika noslēgtas uzņēmumu vadītajā Lielbritānijas AI drošības samitā, kas notika novembrī.

Ir svarīgi, lai Lielbritānijas valdība un citas administratīvās iestādes cieši sadarbotos ar AI uzņēmumiem, lai izveidotu skaidras un standartizētas drošības testēšanas procedūras. Pārredzami un efektīvi novērtējumi ne tikai palielinās uzticību AI tehnoloģijām, bet arī nodrošinās atbildīgu šo sistēmu izvietošanu dažādos sektoros.

Bieži uzdotie jautājumi (BUJ)

1. Kādi uzņēmumi aicina Lielbritānijas valdību paātrināt AI sistēmu drošības testēšanas procedūras?
Vairāki vadošie AI uzņēmumi, tostarp OpenAI, Google DeepMind, Microsoft un Meta, ir izteikuši šo aicinājumu.

2. Kāda ir nesen izveidotās AI Drošības institūta (AISI) loma?
Uzņēmumi ir piekrituši ļaut novērtēt savus AI modeļus AISI.

3. Vai uzņēmumi aizkavēs vai modificēs savu tehnoloģiju izlaišanu, balstoties uz izvērtējuma rezultātiem?
Nē, uzņēmumi nav saistīti aizkavēt vai modificēt savu tehnoloģiju izlaišanu, balstoties uz izvērtējuma rezultātiem.

4. Par kādām bažām ir izteikuši šie uzņēmumi attiecībā uz izvērtēšanas procesu?
Uzņēmumi ir pauduši bažas par pašreizējo tempu, pārredzamību un neskaidrību saistībā ar testēšanas protokoliem. Viņi cenšas iegūt sīkāku informāciju par veiktajiem testiem, izvērtēšanas ilgumu un atsauksmju mehānismu.

5. Vai pastāv neizpratne par to, vai pārbaude jāatkārto nelielu atjauninājumu gadījumā AI modeļiem?
Jā, pastāv neizpratne par to, vai pārbaudi vajadzētu atkārtot katru reizi, kad AI modelis tiek nedaudz atjaunots, kas AI izstrādātājiem var šķist apgrūtinoši.

Galvenie termini/jargons

– AI: Saīsinājums no vārdiem mākslīgais intelekts.
– AI Drošības institūts (AISI): Nesen izveidota iestāde, kas atbild par AI modeļu novērtēšanu drošības jautājumos.
– AI modelis: Atsaucas uz uzņēmuma izstrādātu mākslīgā intelekta sistēmu vai algoritmu.
– Testēšanas protokoli: Procedūras un pamatnostādnes, kas tiek ievērotas AI modeļu novērtēšanai un testēšanai.
– Pirmsizvietošanas testēšana: Testēšana, kas tiek veikta pirms AI modeļa oficiālās izvietošanas vai izlaišanas.

Saistītie saiti

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Finanšu laikraksts

The source of the article is from the blog krama.net

Privacy policy
Contact