Britiske teknologigiganter krever AI-sikkerhetstester

Britiske teknologigiganter, inkludert OpenAI, Google DeepMind, Microsoft og Meta, oppfordrer den britiske regjeringen til å fremskynde sikkerhetstester for kunstig intelligens (AI)-systemer. Mens selskapene har forpliktet seg til å åpne opp deres nyeste generative AI-modeller for gjennomgang av det nylig etablerte AI Safety Institute (AISI), søker de klarhet rundt testene, tidslinjene og tilbakemeldingsprosessen som er involvert.

I motsetning til juridisk bindende avtaler, fremhever disse frivillige forpliktelsene utfordringene med å stole på selvregulering i industrien i det raskt utviklende feltet AI. Som respons har den britiske regjeringen understreket behovet for fremtidige bindende krav for å holde AI-utviklere ansvarlige for systemets sikkerhet.

Det regjeringsstøttede AISI, som spiller en avgjørende rolle i statsminister Rishi Sunaks visjon om at Storbritannia skal være en leder i å håndtere potensielle risikoer med AI, har allerede startet testing av eksisterende AI-modeller. Det har også tilgang til ikke-utgitte modeller, som for eksempel Google Gemini Ultra. Fokuset for disse testene er å dempe risikoene knyttet til misbruk av AI, særlig innen cybersikkerhet. Samarbeidet med National Cyber Security Centre innenfor Government Communications Headquarters (GCHQ) gir ekspertise på dette avgjørende området.

Nylige regjeringskontrakter avslører at AISI har satt av £1 million for å skaffe kapasiteter for å teste AI-chatbots sin sårbarhet for jailbreaking og beskyttelse mot spear-phishing-angrep. I tillegg utvikler AISI automatiserte systemer for å lette reversingen av kildekode, slik at det blir mulig med en grundig evaluering av AI-modeller.

Google DeepMind uttrykte sin forpliktelse til å samarbeide med AISI for å forbedre evalueringen og sikkerhetspraksisene til AI-modeller. OpenAI og Meta valgte imidlertid å ikke kommentere saken.

Alt i alt gjenspeiler presset fra britiske teknologigiganter for AI-sikkerhetstester betydningen av ansvarlig utvikling og regulering for å effektivt håndtere de potensielle risikoene knyttet til AI-fremgang. Regjeringens fokus på bindende krav og industrielt samarbeid har som mål å sikre sikkerhet og ansvar i det raskt voksende feltet AI-teknologi.

FAQ: Britiske teknologigiganter som oppfordrer til AI-sikkerhetstester

1. Hva oppfordrer britiske teknologigiganter den britiske regjeringen til å fremskynde?
Britiske teknologigiganter, inkludert OpenAI, Google DeepMind, Microsoft og Meta, oppfordrer den britiske regjeringen til å fremskynde sikkerhetstester for kunstig intelligens (AI)-systemer.

2. Hvilke forpliktelser har disse selskapene gjort?
Selskapene har forpliktet seg til å åpne opp deres nyeste generative AI-modeller for gjennomgang av det nylig etablerte AI Safety Institute (AISI).

3. Hva er utfordringene med å stole på selvregulering i feltet AI?
De frivillige forpliktelsene fremhever utfordringene med å stole på selvregulering i det raskt utviklende feltet AI.

4. Hva legger den britiske regjeringen vekt på som respons?
Den britiske regjeringen legger vekt på behovet for fremtidige bindende krav for å holde AI-utviklere ansvarlige for systemets sikkerhet.

5. Hva er AISI sin rolle i den britiske regjeringens visjon?
AISI, støttet av regjeringen, spiller en avgjørende rolle i statsminister Rishi Sunaks visjon om at Storbritannia skal være en leder i å håndtere potensielle risikoer med AI.

6. Hva har AISI allerede startet testing av?
AISI har allerede startet testing av eksisterende AI-modeller, inkludert tilgang til ikke-utgitte modeller som for eksempel Google Gemini Ultra.

7. Hva fokuserer AI-sikkerhetstestene på av risikoer?
Fokuset for disse testene er å dempe risikoene knyttet til misbruk av AI, særlig innen cybersikkerhet.

8. Hvem samarbeider AISI med for å få kompetanse innenfor cybersikkerhet?
AISI samarbeider med National Cyber Security Centre innenfor Government Communications Headquarters (GCHQ) for å få kompetanse innenfor cybersikkerhet.

9. Hvilke kapasiteter skaffer AISI for £1 million?
AISI har satt av £1 million for å skaffe kapasiteter for å teste AI-chatbots sin sårbarhet for jailbreaking og beskyttelse mot spear-phishing-angrep.

10. Hvilke automatiserte systemer utvikler AISI?
AISI utvikler automatiserte systemer for å lette reversering av kildekode, slik at en grundig evaluering av AI-modeller blir mulig.

11. Hvordan har Google DeepMind uttrykt sin forpliktelse til AISI?
Google DeepMind har uttrykt sin forpliktelse til å samarbeide med AISI for å forbedre evalueringen og sikkerhetspraksisene til AI-modeller.

12. Hva er regjeringens fokus innenfor AI-teknologi?
Regjeringens fokus er på bindende krav og industrielt samarbeid for å sikre sikkerhet og ansvar i det raskt voksende feltet AI-teknologi.

Definisjoner:
– AI: Kunstig intelligens
– AISI: AI Safety Institute
– Generative AI-modeller: AI-modeller som kan lage nytt innhold eller generere nye data basert på eksisterende mønstre eller informasjon.
– Selvregulering: Evnen til en bransje eller organisasjon til å regulere seg selv uten ekstern statsinnblanding.

Relaterte lenker:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Government Communications Headquarters (GCHQ)

The source of the article is from the blog scimag.news

Privacy policy
Contact