AI-Virksomheder opfordrer den britiske regering til at forbedre sikkerhedstestning

Flere ledende AI-virksomheder, herunder OpenAI, Google DeepMind, Microsoft og Meta, har opfordret den britiske regering til at fremskynde sin sikkerhedstestning af AI-systemer. Disse virksomheder er enige om at lade deres AI-modeller evaluere af det nyligt oprettede AI Safety Institute (AISI), men de har udtrykt bekymring over den nuværende hastighed og gennemsigtighed i evalueringsprocessen. Selvom virksomhederne er villige til at håndtere eventuelle fejl, der identificeres af AISI, er de ikke forpligtet til at forsinke eller ændre frigivelsen af deres teknologier baseret på evalueringsresultaterne.

Et af hovedpunkterne for AI-leverandørerne er manglen på klarhed omkring testprotokollerne. De ønsker mere detaljerede oplysninger om de udførte tests, varigheden af ​​evalueringen og feedbackmekanismen. Der er også uklarhed om, hvorvidt testningen skal gentages hver gang, der er en mindre opdatering af AI-modellen, hvilket AI-udviklere kan betragte som byrdefuldt.

Bekymringerne, der er udtrykt af disse virksomheder, er berettigede, når man betænker uklarheden omkring evalueringsprocessen. Da andre regeringer overvejer lignende AI-sikkerhedsvurderinger, vil enhver nuværende forvirring i Storbritanniens procedurer kun intensiveres, når flere myndigheder begynder at stille sammenlignelige krav til AI-udviklere.

Ifølge Financial Times er den britiske regering allerede gået i gang med at teste AI-modeller ved at samarbejde med de respektive udviklere. Testningen inkluderer adgang til sofistikerede AI-modeller til pre-deployment testning, selv for ufrigivne modeller som Googles Gemini Ultra. Dette initiativ var en af ​​de vigtigste aftaler, der blev underskrevet af virksomhederne ved UK’s AI Safety Summit i november.

Det er afgørende for den britiske regering og andre myndigheder at samarbejde tæt med AI-virksomheder for at etablere klare, standardiserede sikkerhedstestprocedurer. Gennemsigtige og effektive evalueringer vil ikke kun styrke tilliden til AI-teknologier, men også sikre en ansvarlig implementering af disse systemer i forskellige sektorer.

FAQ-sektion

1. Hvilke virksomheder har opfordret den britiske regering til at fremskynde sikkerhedstestning af AI-systemer?
Flere ledende AI-virksomheder, herunder OpenAI, Google DeepMind, Microsoft og Meta, har fremsat denne opfordring.

2. Hvad er rollen for det nyligt oprettede AI Safety Institute (AISI)?
Virksomhederne har accepteret at lade deres AI-modeller evaluere af AISI.

3. Vil virksomhederne forsinke eller ændre frigivelsen af ​​deres teknologier baseret på evalueringsresultaterne?
Nej, virksomhederne er ikke forpligtet til at forsinke eller ændre frigivelsen af ​​deres teknologier baseret på evalueringsresultaterne.

4. Hvad bekymrer disse virksomheder ved evalueringsprocessen?
Virksomhederne har udtrykt bekymring over den nuværende hastighed, gennemsigtighed og mangel på klarhed omkring testprotokollerne. De ønsker flere detaljerede oplysninger om de udførte tests, varigheden af ​​evalueringen og feedbackmekanismen.

5. Er der usikkerhed om, hvorvidt testningen skal gentages for mindre opdateringer af AI-modellerne?
Ja, der er usikkerhed om, hvorvidt testningen skal gentages hver gang der er en mindre opdatering af AI-modellen, hvilket AI-udviklere kan betragte som byrdefuldt.

Vigtige termer/jargon

– AI: Står for Kunstig Intelligens.
– AI Safety Institute (AISI): Et nyligt oprettet institut, der er ansvarligt for at evaluere AI-modeller med henblik på sikkerhed.
– AI-model: Henviser til det kunstige intelligenssystem eller algoritme, der er udviklet af virksomhederne.
– Testprotokoller: Proceduren og retningslinjerne til evaluering og testning af AI-modeller.
– Pre-deployment testning: Testning, der udføres inden formel implementering eller frigivelse af AI-modellen.

Relaterede links

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact