Global stemme for AI-sikkerhed opfordrer verdensledere til at tage afgørende handling

**Eksperter Opfordrer Til Stærkere AI-Sikkerhedsforanstaltninger Forud for Topmødet i Seoul**

En samling på 25 førende globale eksperter inden for kunstig intelligens (AI) har slået alarm om de potentielle farer forbundet med teknologien og udtrykt behovet for, at verdens ledere bliver mere årvågne. Deres bekymringer blev udtrykt i et åbent brev offentliggjort i tidsskriftet Science i forventning om AI-sikkerhedstopmødet i Seoul.

Med topmødet i Seoul, som afholdes af Sydkorea og Storbritannien og forventes at være en fortsættelse af diskussioner seks måneder tidligere på Bletchley Park, forventes der en fortsættelse. Dette følger en indledende aftale mellem EU, USA og Kina på det historiske Bletchley Park-møde, hvor dualiteten af muligheder og risici ved AI blev anerkendt, og man forpligtede sig til fælles internationale bestræbelser på at tackle store udfordringer.

**Efterslæb af Fremskridt Efter Bletchley Park-forpligtelsen**

Trods visse fremskridt siden erklæringen fra Bletchley Park understreger underskriverne, herunder fremtrædende skikkelser som Geoffrey Hinton, Yoshua Bengio og Daniel Kahneman, at fremskridtene har været utilstrækkelige. De lægger vægt på behovet for, at ledere alvorligt overvejer den realistiske mulighed for, at generalistiske AI-systemer kan overgå menneskelige evner inden for flere kritiske områder inden for det næste årti eller tidligere.

**Forskning og Forebyggelse af Misbrug**

Alarmerende nok synes den nuværende AI-forskning at have underprioriteret sikkerheden, da kun 1-3% af publikationerne fokuserer på dette aspekt. Forfatterne af brevet påpeger manglen på mekanismer og institutioner til at forhindre misbrug og uagtsomme handlinger, herunder udrulning af autonome systemer, der kan operere og forfølge mål uafhængigt.

AI har allerede vist hurtige fremskridt inden for kritiske områder som cyberhackning, social manipulation og strategisk planlægning. De potentielle udfordringer, der kan opstå, er uforudsigelige, herunder AI-systemer, der opnår menneskeligt tillid, skaffer ressourcer og påvirker centrale beslutningstagere.

**Opfordring til Handling: Fra Bred Efterlevelse til Konkrete Forpligtelser**

Som professorer Stuart Russell og Philip Torr bemærker, er der en kritisk nødvendighed for at gå fra upræcise forslag til konkrete forpligtelser. Dette involverer, at man tager avancerede AI-systemer alvorligt, pålægger strenge reguleringer over for frivillige koder og afviser opfattelsen af, at reguleringer kvæler innovation.

**Aktioner Foreslået til Styrket AI-Sikkerhed**

Brevet beskriver flere foranstaltninger for regeringer, såsom etablering af agile AI-ekspertinstitutioner med tilstrækkelig finansiering. Sammenlignet med den beskedne budget for den amerikanske AI-sikkerhedsinstitut har andre føderale agenturer som FDA markant højere økonomiske ressourcer. Derudover kræver det strenge risikovurderinger, prioritering af sikkerhed af AI-virksomheder, gennemførelse af “sikkerhedstilfælde” og standardafværgeforanstaltninger i overensstemmelse med AI-risici.

En akut prioritetsopgave er politisk aktivering ved nåelse af bestemte kapacitetsmål for AI, med strenge krav, hvis AI udvikler sig hurtigt, men potentielt lempelse, hvis fremskridtet aftager.

Ved at opsummere de involverede risici, antyder brevet, at mens menneskeheden praler sig af intelligens, kan udviklingen af AI ironisk nok føre mod udslettelsen af den mest intelligente art gennem sin egen skabelse.

**Betydningen af Globalt Samarbejde for AI-Sikkerhed**

Da AI fortsætter med at trænge ind i forskellige sektorer, herunder militær, sundhedsvæsen, finans og transport, står det globale samfund over for en presserende udfordring om at sikre, at AI-systemer ikke udgør skade for mennesker og bredere samfundsmæssige strukturer. Samarbejde mellem nationer er afgørende for at etablere en samlet tilgang til at håndtere risiciene forbundet med AI, samtidig med at man skaber et sikkert miljø for innovatio

Privacy policy
Contact