UK tehnoloģijas vadošie giganti aicina veikt AI drošības testus

Lielbritānijas iesaceji tehnoloģiju jomā, tostarp OpenAI, Google DeepMind, Microsoft un Meta, aicina Lielbritānijas valdību paātrināt mākslīgā intelekta (AI) sistēmu drošības testus. Lai gan uzņēmumi ir apņēmušies atklāt savus jaunākos ģenerējošos AI modeļus pārskatīšanai neseno AI Drošības institūta (AISI) izveidošanā, viņi cenšas iegūt skaidrību par testiem, laika grafikiem un saņemto atsauksmju procesu.

Atšķirībā no juridiski saistošiem nolīgumiem, šie brīvprātīgie apņemšanās rāda izaicinājumus, ko rada uzticēšanās nozares pašregulācijai strauji attīstošajā AI jomā. Kā atbildi uz to, Lielbritānijas valdība ir uzsvērusi nepieciešamību pēc nākotnes saistošiem noteikumiem, kas padarītu AI izstrādātājus atbildīgu par sistēmu drošību.

Valsts atbalstītais AISI, kas ieņem nozīmīgu vietu premjerministra Rīši Sunaka redzējumā par Lielbritāniju kā līderi AI potenciālo risku novēršanā, jau ir uzsācis esošo AI modeļu testēšanu. Tai ir arī piekļuve neizdošanais modeļiem, piemēram, Google Gemini Ultra. Šo testu fokuss ir risku novēršanā, kas saistīti ar AI ļaunprātīgu izmantošanu, it īpaši saistībā ar kiberdrošību. Sadarbība ar Nacionālo kiberdrošības centru Valsts saziņas galvenajā kvartālī (GCHQ) sniedz ekspertīzi šajā nozīmīgajā jomā.

Nesenās valdības līgumi atklāj, ka AISI ir atvēlējusi 1 miljonu sterliņu mārciņu AI čata botu jēlniecības pakļautības un aizsardzības spuru phishing uzbrukumiem pārbaudei. Turklāt AISI izstrādā automatizētus sistēmas priekšnoteikumus, lai atspoguļotu avota kodu, nodrošinot pamatīgu AI modeļu novērtēšanu.

Google DeepMind pauda savu apņemšanos sadarboties ar AISI, lai uzlabotu AI modeļu novērtēšanas un drošības prakses. Tomēr OpenAI un Meta attiecībā uz šo jautājumu atteicās komentēt.

Kopumā Lielbritānijas tehnoloģijas gigantu centieni veikt AI drošības testus atspoguļo atbildīgas attīstības un regulēšanas nozīmi, lai efektīvi risinātu ar AI attīstību saistītos potenciālos riskus. Valdības uzmanība vērsta uz saistošiem prasību pildīšanas un nozares sadarbības noteikumiem, lai nodrošinātu drošību un atbildību strauji augošajā AI tehnoloģiju jomā.

Bieži uzdodamie jautājumi: UK tehnoloģiju giganti aicina veikt AI drošības testus

1. Ko UK tehnoloģiju giganti aicina Lielbritānijas valdību paātrināt?
UK tehnoloģiju giganti, tai skaitā OpenAI, Google DeepMind, Microsoft un Meta, aicina Lielbritānijas valdību paātrināt mākslīgā intelekta (AI) sistēmu drošības testus.

2. Kādas ir šo uzņēmumu saistības?
Uzņēmumi ir apņēmušies atklāt savus jaunākos ģenerējošos AI modeļus neseno AI Drošības institūta (AISI) izveidošanai pārskatīšanai.

3. Kādas ir izaicinājumi, uz kuriem liecina brīvprātīgās saistības?
Brīvprātīgās saistības atklāj izaicinājumus, ar ko saskaras, uzticoties nozares pašregulācijai strauji attīstošajā AI jomā.

4. Ko Lielbritānijas valdība uzsvēra atbildē?
Lielbritānijas valdība uzsver nepieciešamību pēc nākotnes saistošiem noteikumiem, kas padarītu AI izstrādātājus atbildīgus par sistēmu drošību.

5. Kāda ir AISI loma Lielbritānijas valdības redzējumā?
Ar valsts atbalstu AISI ieņem nozīmīgu vietu premjerministra Rīši Sunaka redzējumā par Lielbritāniju kā līderi AI potenciālo risku novēršanā.

6. Ar ko AISI jau sākusi testēšanu?
AISI jau ir uzsākusi esošo AI modeļu testēšanu, tai skaitā piekļuvi neizdošanai modeļiem, kā piemēram, Google Gemini Ultra.

7. Uz kādiem riskiem koncentrējas AI drošības testi?
Šo testu fokuss ir risku novēršanā, kas saistīti ar AI ļaunprātīgu izmantošanu, it īpaši saistībā ar kiberdrošību.

8. Ar kuru iestādi AISI sadarbojas un sniedz ekspertīzi kiberdrošības jomā?
AISI sadarbojas ar Nacionālo kiberdrošības centru Valsts saziņas galvenajā kvartālī (GCHQ), lai sniegtu ekspertīzi kiberdrošības jomā.

9. Kādas iespējas AISI iepērk ar 1 miljonu sterliņu mārciņu?
AISI ir atvēlējusi 1 miljonu sterliņu mārciņu AI čata botu jēlniecības un aizsardzības spuru phishing uzbrukumiem pārbaudei.

10. Kādas automatizētas sistēmas izstrādā AISI?
AISI izstrādā automatizētas sistēmas, lai atvieglotu avota koda inversijas inženieriju un nodrošinātu pamatīgu AI modeļu novērtēšanu.

11. Kā Google DeepMind ir paudis savu apņemšanos AIDI?
Google DeepMind ir paudis savu apņemšanos sadarboties ar AISI, lai uzlabotu AI modeļu novērtēšanas un drošības prakses.

12. Kāda ir valdības fokusa joma AI tehnoloģiju jomā?
Valdības fokuss ir uz saistošiem prasību pildīšanas un nozares sadarbības noteikumiem, lai nodrošinātu drošību un atbildību strauji augošajā AI tehnoloģiju jomā.

Definīcijas:
– AI: Mākslīgais intelekts
– AISI: AI Drošības institūts
– Ģenerējošie AI modeļi: AI modeļi, kas var radīt jaunu saturu vai ģenerēt jaunas datus, pamatojoties uz esošiem raksturlielumiem vai informāciju.
– Pašregulācija: Nozares vai organizācijas spēja regulēt sevi bez ārējas valdības iejaukšanās.

Saistītie saites:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Valsts saziņas galvenais kvartālis (GCHQ)

The source of the article is from the blog elblog.pl

Privacy policy
Contact