En nylig rapport afslørede, at OpenAI har fremskyndet udviklingen af nye AI-modeller, mens de forsømte sikkerhedsprotokoller og sikkerhedsforanstaltninger. Bekymringer blev rejst af uidentificerede medarbejdere, som underskrev et åbent brev og gav udtryk for bekymring over manglen på tilsyn ved konstruktion af AI-systemer. Som svar har OpenAI oprettet et nyt sikkerheds- og sikkerhedsudvalg bestående af bestyrelsesmedlemmer og udvalgte ledere med det formål at vurdere og forbedre sikkerhedsprotokoller.
Trods beskyldninger om forsømmelse af sikkerhedsprotokoller delte tre OpenAI-medarbejdere anonymt med The Washington Post, at holdet følte sig presset til at fremskynde implementeringen af en ny testprotokol designet til at “forhindre AI-systemer i at forårsage katastrofal skade”, for at opfylde den planlagte lancering af GPT-4 Omni i maj som fastsat af OpenAI-ledelsen.
Sikkerhedsprotokollerne har til formål at sikre, at AI-modeller ikke giver skadelig information eller assisterer i udførelsen af farlige handlinger såsom konstruktion af kemiske, biologiske, radiologiske og nukleare våben eller hjælp til cyberangreb.
Desuden fremhævede rapporten en lignende hændelse, der fandt sted før lanceringen af GPT-4o, beskrevet som OpenAIs mest avancerede AI-model. Planer for lanceringen blev lavet uden at sikre dens sikkerhed, og en OpenAI-medarbejder blev citeret i rapporten for at sige, “vi fejlede fundamentalt i denne proces.”
Dette er ikke første gang, at OpenAI-medarbejdere påpeger tydelig manglende respekt for sikkerheds- og sikkerhedsprotokoller i virksomheden. Sidste måned underskrev tidligere og nuværende medarbejdere hos OpenAI og Google DeepMind et åbent brev, hvor de gav udtryk for bekymring over manglen på tilsyn i udviklingen af nye AI-systemer, der kunne udgøre betydelige risici.
Brevet opfordrede til regeringsindgriben, reguleringsmekanismer og robust beskyttelse af whistleblowere fra arbejdsgiverne. To ud af de tre medstiftere af OpenAI, Jeffrey Hinton og Yoshua Bengio, støttede det åbne brev.
I maj annoncerede OpenAI dannelse af et nyt sikkerheds- og sikkerhedsudvalg, som har til opgave at evaluere og forbedre virksomhedens AI-operationer og sikre afgørende sikkerheds- og beslutninger for OpenAI-projekter og operationer. Virksomheden delte for nylig nye retningslinjer for opbygning af ansvarlige og etiske AI-modeller, kaldet Model Spec.
En nylig rapport afslørede yderligere detaljer om bekymringerne over sikkerhedsprotokoller hos OpenAI og kastede lys over centrale spørgsmål og udfordringer vedrørende problemet.
Centrale Spørgsmål:
1. Hvilke specifikke sikkerhedsprotokoller blev forsømt af OpenAI under udviklingen af AI-modeller?
2. Hvordan påvirkede presset for at fremskynde implementeringen af nye testprotokoller sikkerhedsforanstaltningerne?
3. Hvad er de potentielle risici ved AI-systemer, der mangler tilstrækkelige sikkerheds- og sikkerhedsprotokoller?
4. Hvordan har medarbejdere og brancheeksperter foreslået at imødegå sikkerhedsbekymringerne hos OpenAI?
5. Hvad er fordelene og ulemperne ved OpenAIs tilgang til at prioritere udviklingen af AI-modeller over sikkerhedsprotokoller?
Centrale Udfordringer og Kontroverser:
– OpenAI-medarbejdere følte sig pressede til at prioritere lanceringen af nye AI-modeller frem for at sikre robuste sikkerhedsprotokoller, hvilket rejste bekymringer om potentialet for katastrofal skade.
– Forsømmelse af sikkerhedsprotokoller kan føre til, at AI-systemer leverer skadelig information eller er involveret i farlige handlinger, såsom at lette oprettelsen af våben eller cyberangreb.
– Manglende tilsyn med konstruktion af AI-systemer kan medføre betydelige risici og etiske dilemmaer og kræver øjeblikkelig opmærksomhed og intervention.
– Opfordringen til regeringsregulering, beskyttelse af whistleblowere og forbedrede sikkerhedsforanstaltninger afspejler den voksende bekymring over den uforbeholdne udvikling af AI-teknologier.
For mere information om vigtigheden af sikkerhedsprotokoller i udviklingen af AI og de løbende diskussioner om OpenAIs praksis, besøg OpenAIs officielle hjemmeside på OpenAI.