Brittiläiset teknologiajätit vaativat tekoälyturvallisuustestejä

Brittiläiset teknologiajätit, kuten OpenAI, Google DeepMind, Microsoft ja Meta, kehottavat Britannian hallitusta nopeuttamaan tekoälyjärjestelmien turvallisuustestejä. Vaikka yritykset ovat sitoutuneet avaamaan uusimmat luovat tekoälymallinsa tarkistettavaksi äskettäin perustetulle AI Safety Institute (AISI) -instituutille, he haluavat selvennystä testeihin, aikatauluihin ja palauteprosessiin liittyen.

Toisin kuin laillisesti sitovat sopimukset, nämä vapaaehtoiset sitoumukset korostavat haasteita, joita liittyy teollisuuden itsesääntelyyn nopeasti kehittyvällä tekoälyn alalla. Vastauksena Britannian hallitus on korostanut tarvetta tuleville sitoville vaatimuksille, joiden avulla tekoälyn kehittäjiä voidaan pitää vastuullisina järjestelmäturvallisuudesta.

Hallituksen tukema AISI, joka on keskeisessä asemassa pääministeri Rishi Sunakin visiossa Britanniasta tekoälyn mahdollisten riskien torjunnan edelläkävijänä, on jo aloittanut olemassa olevien tekoälymallien testaamisen. Instituutilla on myös pääsy julkaisemattomiin malleihin, kuten Googlen Gemini Ultraan. Näissä testeissä keskitytään tekoälyn väärinkäytön riskien vähentämiseen erityisesti tietoturvassa. Yhteistyö Kansallisen kyber​​turvallisuuskeskuksen (NCSC) kanssa antaa asiantuntemusta tässä tärkeässä asiassa.

Viimeaikaiset hallituksen sopimukset paljastavat, että AISI on myöntänyt 1 miljoonan punnan rahoituksen kyvykkyyksien hankkimiseen AI-chatbottien haavoittuvuuden testaamiseksi vankilan murtamista vastaan ja suojautumiseksi spear-phishing-hyökkäyksiltä. Lisäksi AISI kehittää automatisoituja järjestelmiä, jotka helpottavat lähdekoodin takaisinmallintamista, mahdollistaen tekoälymallien perusteellisen arvioinnin.

Google DeepMind on ilmaissut sitoutumisensa yhteistyöhön AISIn kanssa tavoitteenaan parantaa tekoälymallien arviointi- ja turvallisuuskäytäntöjä. Sen sijaan OpenAI ja Meta kieltäytyivät kommentoimasta asiaa.

Yleisesti ottaen Brittiläisten teknologiajättien vaatimus tekoälyturvallisuustesteistä heijastaa vastuullisen kehityksen ja sääntelyn tärkeyttä tekoälyn mahdollisten riskien tehokkaassa torjunnassa. Hallituksen painopiste sitovissa vaatimuksissa ja teollisuuden yhteistyössä pyrkii varmistamaan turvallisuuden ja vastuullisuuden nopeasti kasvavalla tekoälyteknologian alalla.

UK Tech Giants vaativat tekoälyturvallisuustestejä – Usein kysytyt kysymykset (FAQ)

1. Mitä Brittiläiset teknologiajätit vaativat Britannian hallitukselta nopeuttamaan?
Brittiläiset teknologiajätit, kuten OpenAI, Google DeepMind, Microsoft ja Meta, vaativat Britannian hallitukselta tekoälyjärjestelmien turvallisuustestien nopeuttamista.

2. Minkälaisia sitoumuksia nämä yritykset ovat tehneet?
Yritykset ovat sitoutuneet avaamaan uusimmat luovat tekoälymallinsa tarkasteluun äskettäin perustetulle AI Safety Institute (AISI) -instituutille.

3. Mitkä haasteet liittyvät toimialojen itsesääntelyyn tekoälyn alalla?
Vapaaehtoiset sitoumukset korostavat haasteita, joita liittyy teollisuuden itsesääntelyyn nopeasti kehittyvällä tekoälyn alalla.

4. Mihin Britannian hallitus korostaa vastauksena?
Britannian hallitus korostaa tarvetta tuleville sitoville vaatimuksille, joiden avulla tekoälyn kehittäjiä voidaan pitää vastuullisina järjestelmäturvallisuudesta.

5. Millainen rooli AISI:lla on Britannian hallituksen visiossa?
Hallituksen tukema AISI on keskeisessä asemassa pääministeri Rishi Sunakin visiossa Britanniasta tekoälyn mahdollisten riskien torjunnan edelläkävijänä.

6. Mitä AISI on jo aloittanut testaamaan?
AISI on jo aloittanut olemassa olevien tekoälymallien testaamisen, mukaan lukien pääsy julkaisemattomiin malleihin, kuten Googlen Gemini Ultraan.

7. Mihin riskit tekoälyturvallisuustesteissä keskittyvät?
Näissä testeissä keskitytään tekoälyn väärinkäytön riskien vähentämiseen erityisesti tietoturvassa.

8. Kenen kanssa AISI tekee yhteistyötä kyberturvallisuuden osaamisessa?
AISI tekee yhteistyötä Kansallisen kyber​​turvallisuuskeskuksen (NCSC) kanssa tarjotakseen asiantuntemusta kyberturvallisuudessa.

9. Mitä kyvykkyyksiä AISI hankkii 1 miljoonalla punnalla?
AISI on myöntänyt 1 miljoonan punnan rahoituksen kyvykkyyksien hankkimiseen AI-chatbottien haavoittuvuuden testaamiseksi vankilan murtamista vastaan ja suojautumiseksi spear-phishing-hyökkäyksiltä.

10. Mitä automatisoituja järjestelmiä AISI kehittää?
AISI kehittää automatisoituja järjestelmiä, jotka helpottavat lähdekoodin takaisinmallintamista, mahdollistaen tekoälymallien perusteellisen arvioinnin.

11. Miten Google DeepMind on ilmaissut sitoutumisensa AISI:lle?
Google DeepMind on ilmaissut sitoutumisensa yhteistyöhön AISIn kanssa tavoitteenaan parantaa tekoälymallien arviointi- ja turvallisuuskäytäntöjä.

12. Mistä hallitus keskittyy tekoälyteknologian alalla?
Hallituksen painopiste on sitovissa vaatimuksissa ja teollisuuden yhteistyössä varmistaakseen turvallisuuden ja vastuullisuuden nopeasti kasvavalla tekoälyteknologian alalla.

Määritelmät:
– Tekoäly (AI): Artificial Intelligence
– AISI: AI Safety Institute
– Luovat tekoälymallit: Tekoälymallit, jotka voivat luoda uutta sisältöä tai generoida uutta tietoa olemassa olevien mallien tai tiedon perusteella.
– Itsesääntely: Teollisuuden tai organisaation kyky säädellä itseään ilman ulkoista hallituksen puuttumista.

Liittyvät linkit:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Kansallinen kyber​​turvallisuuskeskus (NCSC)

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact