OpenAI har afsløret et nyt kunstig intelligenssystem kaldet SentinelAI med det primære formål at forbedre præcisionen og pålideligheden af AI-genereret indhold. Denne innovative model, tæt overvåget af menneskelige vejledere, analyserer svarene fra eksisterende AI-systemer for at identificere og rette unøjagtigheder og dermed bidrage til en forbedret brugeroplevelse.
SentinelAI: Sikring af informationsintegritet
OpenAI hævder, at i teknologiske fremskridts rige spiller AI-systemer som SentinelAI en afgørende rolle i at opretholde pålidelighed. Anerkendende AI-systemers tilbøjelighed til lejlighedsvis at producere fejlagtige resultater, udviklede OpenAI SentinelAI til at registrere og rette unøjagtigheder i genereret indhold.
SentinelAI, en afledning af GPT-sprogmodellen, er specifikt designet til at identificere fejlagtige oplysninger eller forkerte svar. Ifølge vurderinger foretaget af OpenAI har SentinelAI været succesrig med at identificere cirka 60% af de kritikker, som menneskelige evalueringspersoner har fremsat. Denne funktionalitet lover godt for fremtidig evaluering af svar genereret af AI-systemer.
Derudover gennemgår SentinelAI træning ved at identificere fejl, som brugerne har rapporteret, samt ved at selv vurdere fejlene i eksisterende AI-modeller. OpenAI præciserer dog, at modellen er begrænset til at analysere korte svar, hvilket indikerer visse begrænsninger i dens evner.
Det er afgørende at understrege de potentielle risici forbundet med misinformation, der bliver spredt af AI-systemer. Mens der kan opstå spekulationer om forbud mod AI-systemer i specifikke regioner, fremhæver OpenAI eksplicit, at der endnu ikke er truffet officielle beslutninger.
For yderligere information om OpenAI’s initiativer og udviklinger, besøg OpenAI’s officielle hjemmeside: OpenAI’s officielle hjemmeside.