AI-yritykset kehottavat Britannian hallitusta parantamaan turvallisuustestausta

Useat johtavat tekoälyyritykset, kuten OpenAI, Google DeepMind, Microsoft ja Meta, ovat kehottaneet Britannian hallitusta nopeuttamaan tekoälyjärjestelmien turvallisuustestausmenettelyjä. Nämä yritykset ovat suostuneet sallimaan AI-mallinsa arvioinnin vastikään perustetussa AI Safety Institute (AISI) -instituutissa, mutta ovat ilmaisseet huolensa nykyisen arviointiprosessin vauhdin ja avoimuuden suhteen. Vaikka yritykset ovatkin valmiita korjaamaan mahdolliset AISI:n tunnistamat puutteet, ne eivät ole velvollisia viivästyttämään tai muokkaamaan teknologioidensa julkaisua arviointitulosten perusteella.

Yksi tekoälytoimittajien pääkysymyksistä on testausprotokollien epäselvyys. He haluavat saada yksityiskohtaisempaa tietoa suoritetuista testeistä, arvioinnin kestosta ja palautemekanismista. On myös epäselvää, täytyykö testaus toistaa joka kerta, kun tekoälymalliin tehdään pieni päivitys, mikä kehittäjille voi tuntua rasittavalta vaatimukselta.

Näiden yritysten esittämät huolenaiheet ovat perusteltuja nykyisen arviointiprosessin hämäryyden vuoksi. Muidenkin maiden harkitessa vastaavia tekoälyturvallisuuden arviointeja, Iso-Britannian menettelyihin liittyvä nykyinen sekaannus vain korostuu, kun useammat viranomaiset alkavat esittää samankaltaisia vaatimuksia tekoälykehittäjille.

Financial Timesin mukaan Britannian hallitus on jo aloittanut tekoälymallien testauksen yhteistyössä kyseisten kehittäjien kanssa. Testaukseen sisältyy pääsy monimutkaisiin tekoälymalleihin ennen niiden käyttöönottoa, jopa julkaisemattomiin malleihin, kuten Googlen Gemini Ultraan. Tämä aloite oli yksi yritysten allekirjoittamista keskeisistä sopimuksista Britannian marraskuussa järjestetyssä AI Safety Summit -tapahtumassa.

On tärkeää, että Britannian hallitus ja muut valvovat elimet tekevät tiivistä yhteistyötä tekoälyyritysten kanssa selkeiden ja standardoitujen turvallisuustestausmenettelyjen luomiseksi. Avoin ja tehokas arviointi ei ainoastaan lisää luottamusta tekoälyteknologioihin, vaan myös varmistaa näiden järjestelmien vastuullisen käyttöönoton eri sektoreilla.

UKK-osio

1. Mitkä yritykset ovat kehottaneet Britannian hallitusta nopeuttamaan tekoälyjärjestelmien turvallisuustestausmenettelyjä?
Useat johtavat tekoälyyritykset, kuten OpenAI, Google DeepMind, Microsoft ja Meta, ovat tehneet tämän kehotuksen.

2. Mikä on vastikään perustetun AI Safety Institute (AISI) -instituutin rooli?
Yritykset ovat suostuneet sallimaan AI-mallinsa arvioinnin AISI-instituutissa.

3. Viivästyttävätkö tai muuttavatko yritykset teknologioidensa julkaisua arviointitulosten perusteella?
Eivät, yritykset eivät ole velvollisia viivästyttämään tai muokkaamaan teknologioidensa julkaisua arviointitulosten perusteella.

4. Mitä huolenaiheita nämä yritykset ovat ilmaisseet arviointiprosessiin liittyen?
Yritykset ovat ilmaisseet huolensa nykyisen arviointiprosessin vauhdin, avoimuuden ja testausprotokollien epäselvyyden suhteen. He haluavat saada yksityiskohtaisempaa tietoa suoritetuista testeistä, arvioinnin kestosta ja palautemekanismista.

5. Onko epäselvää, täytyykö testaus toistaa pienille päivityksille tehtäessä?
Kyllä, on epäselvää, täytyykö testaus toistaa joka kerta, kun tekoälymalliin tehdään pieni päivitys, mikä kehittäjät saattavat kokea rasittavana.

Avainsanat/sanastoa

– AI: Lyhenne sanoista tekoäly (Artificial Intelligence).
– AI Safety Institute (AISI): Vastikään perustettu instituutti, jonka tehtävänä on arvioida tekoälymalleja turvallisuuden näkökulmasta.
– AI-malli: Tarkoittaa yritysten kehittämää tekoälyjärjestelmää tai algoritmia.
– Testausprotokollat: Arvioinnin ja testauksen suorittamiseen noudatetut menettelytavat ja ohjeistukset.
– Ennen käyttöönottoa suoritettava testaus: Testaus, joka suoritetaan ennen tekoälymallin virallista käyttöönottoa tai julkaisua.

Liittyvät linkit

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact