Britiske teknologigiganter opfordrer til AI-sikkerhedstests

Storbritanniens teknologigiganter, herunder OpenAI, Google DeepMind, Microsoft og Meta, opfordrer den britiske regering til at fremskynde sikkerhedstests af kunstig intelligens (AI) -systemer. Mens virksomhederne har forpligtet sig til at åbne deres nyeste generative AI-modeller til gennemgang af det nyligt etablerede AI Safety Institute (AISI), ønsker de klarhed over de test, tidsrammer og feedback-processer, der er involveret.

I modsætning til bindende aftaler fremhæver disse frivillige forpligtelser udfordringerne ved at stole på branchens selvregulering i det hurtigt udviklende AI-område. Som svar har den britiske regering understreget behovet for fremtidige bindende krav for at gøre AI-udviklere ansvarlige for systemsikkerhed.

Det regeringsstøttede AISI, der spiller en afgørende rolle i premierminister Rishi Sunaks vision om, at Storbritannien skal være førende inden for håndtering af AI’s potentielle risici, er allerede begyndt at teste eksisterende AI-modeller. Det har også adgang til ureleaserede modeller, som f.eks. Googles Gemini Ultra. Disse tests fokuserer på at begrænse risici forbundet med misbrug af AI, især inden for cybersikkerhed. Samarbejdet med National Cyber Security Centre inden for Government Communications Headquarters (GCHQ) giver ekspertise på dette afgørende område.

Nylige regeringsaftaler afslører, at AISI har afsat £1 million til at skaffe muligheder for at teste AI-chatbots’ modtagelighed for jailbreaking og beskytte mod spear-phishing-angreb. Derudover udvikler AISI automatiserede systemer til at lette reverse engineering af kildekode, hvilket muliggør en grundig evaluering af AI-modeller.

Google DeepMind har givet udtryk for deres engagement i at samarbejde med AISI med det formål at forbedre evalueringen og sikkerhedspraksisserne for AI-modeller. OpenAI og Meta ønskede dog ikke at kommentere sagen.

Alt i alt afspejler de britiske teknologigiganters opfordring til AI-sikkerhedstests vigtigheden af ansvarlig udvikling og regulering for effektivt at håndtere de potentielle risici ved AI-udvikling. Regeringens fokus på bindende krav og branchens samarbejde har til formål at sikre sikkerhed og ansvarlighed på det hurtigt voksende område for AI-teknologi.

Ofte stillede spørgsmål: UK Tech Giants opfordrer til AI-sikkerhedstests

1. Hvad opfordrer britiske teknologigiganter den britiske regering til at fremskynde?
Britiske teknologigiganter, herunder OpenAI, Google DeepMind, Microsoft og Meta, opfordrer den britiske regering til at fremskynde sikkerhedstests af kunstig intelligens (AI) -systemer.

2. Hvad har disse virksomheder forpligtet sig til?
Virksomhederne har forpligtet sig til at åbne deres nyeste generative AI-modeller til gennemgang af det nyligt etablerede AI Safety Institute (AISI).

3. Hvad er udfordringerne ved at stole på branchens selvregulering inden for AI-området?
De frivillige forpligtelser fremhæver udfordringerne ved at stole på branchens selvregulering i den hurtigt udviklende AI-branche.

4. Hvad understreger den britiske regering som svar?
Den britiske regering understreger behovet for fremtidige bindende krav for at gøre AI-udviklere ansvarlige for systemsikkerhed.

5. Hvad er AISIs rolle i den britiske regerings vision?
AISI, der bakkes op af regeringen, spiller en afgørende rolle i premierminister Rishi Sunaks vision om, at Storbritannien skal være førende inden for håndtering af AI’s potentielle risici.

6. Hvad er AISI allerede begyndt at teste?
AISI er allerede begyndt at teste eksisterende AI-modeller, herunder adgang til ureleaserede modeller som f.eks. Googles Gemini Ultra.

7. Hvilke risici fokuserer AI-sikkerhedstestene på?
Disse tests fokuserer på at begrænse risici forbundet med misbrug af AI, især inden for cybersikkerhed.

8. Hvem samarbejder AISI med for at få ekspertise inden for cybersikkerhed?
AISI samarbejder med National Cyber Security Centre inden for Government Communications Headquarters (GCHQ) for at få ekspertise inden for cybersikkerhed.

9. Hvad skaffer AISI med £1 million?
AISI har afsat £1 million til at skaffe muligheder for at teste AI-chatbots’ modtagelighed for jailbreaking og beskytte mod spear-phishing-angreb.

10. Hvad udvikler AISI automatiserede systemer til?
AISI udvikler automatiserede systemer til at lette reverse engineering af kildekode, hvilket muliggør en grundig evaluering af AI-modeller.

11. Hvordan har Google DeepMind udtrykt deres engagement i AISI?
Google DeepMind har givet udtryk for deres engagement i at samarbejde med AISI med det formål at forbedre evalueringen og sikkerhedspraksisserne for AI-modeller.

12. Hvad er regeringens fokus inden for AI-teknologi?
Regeringens fokus er på bindende krav og branchens samarbejde for at sikre sikkerhed og ansvarlighed på det hurtigt voksende område for AI-teknologi.

Definitioner:
– AI: Kunstig intelligens
– AISI: AI Safety Institute
– Generative AI-modeller: AI-modeller, der kan skabe nyt indhold eller generere nye data baseret på eksisterende mønstre eller informationer.
– Selvregulering: Evnen til, at en branche eller organisation regulerer sig selv uden ekstern indgriben fra regeringen.

Relaterede links:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Government Communications Headquarters (GCHQ)

The source of the article is from the blog tvbzorg.com

Privacy policy
Contact