Title

Googles AI Model Gemini: Læringer og Fremtiden for AI-sikkerhed

Googles medstifter Sergey Brin talte for nylig ud om den problematiske lancering af Gemini, Googles kunstige intelligensmodel, og erkendte virksomhedens fejl. Hændelsen involverede Geminis billedgenereringsværktøj, der portrætterede historiske figurer, herunder paver og tyske soldater, som mennesker af farve. Denne kontrovers tiltrak negativ kommentar og kritik fra personer som Elon Musk og endda Googles administrerende direktør, Sundar Pichai.

Roden til problemet ligger i Googles hensigt om at producere en bias-fri AI-model og adressere problemerne med bias, der findes i andre AI-systemer. Justeringen blev imidlertid håndteret forkert, hvilket resulterede i produktionen af upassende og forkerte billeder. Gemini, ligesom lignende systemer fra konkurrenter, herunder OpenAI, kombinerer et tekstgenererende “stort sprogmodel” (LLM) med et billedgenereringssystem. LLM’en får omhyggelige instruktioner om at omskrive brugerforespørgsler for at udløse billedgeneratoren. Desværre kan eksponering af disse instruktioner til brugeren sommetider forekomme, kendt som “prompt injection”.

Prompt injection afslørede, at Geminis instruktioner inkluderede et krav om at repræsentere forskellige køn og etniciteter lige. Dette alene forklarer imidlertid ikke, hvorfor systemet producerede så overdrevne og forkerte resultater. Sergey Brin udtrykte sin egen forvirring over, hvorfor modellen vippede mod visse bias og erkendte, at en grundig test manglede.

Eksperter på området, som Dame Wendy Hall fra University of Southampton, argumenterer for, at Google skyndte sig med at frigive Gemini-modellen som reaktion på OpenAIs succes med deres egne AI-modeller. Denne hast med at konkurrere kompromitterede den grundige evaluering og test af teknologien. Hall understreger vigtigheden af at træne modeller fornuftigt for ikke at producere meningsløse billeder som Geminis afbildning af tyske soldater fra 2. verdenskrig.

Trods kontroversen omkring Gemini kan denne hændelse måske hjælpe med at omfokusere AI-sikkerhedsdebatten på mere presserende bekymringer som bekæmpelse af deepfakes. Det understreger behovet for omfattende test og evaluering af AI-modeller før deres frigivelse i stor skala. Forventningerne til generative AI-modeller, hvad angår kreativitet, nøjagtighed og afspejling af samfundsnormer, er høje. Imidlertid bemærker Andrew Rogoyski fra University of Surrey, at vi skal huske, at denne teknologi er relativt ny og stadig er under udvikling.

Selvom der har været spekulationer om Sundar Pichais stilling hos Google, ville det at tillægge skylden udelukkende ham overskygge det større problem med arbejdskultur og behovet for en systemisk nulstilling. Efter Gemini-hændelsen er det afgørende, at Google og andre teknologivirksomheder prioriterer AI-sikkerhed, ikke kun for fremtidige generationer af teknologien, men også for at håndtere øjeblikkelige risici og samfundsudfordringer, såsom stigningen af deepfakes.

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact