Pamokos, išmoktos iš „Gemini“: ateities dirbtinio intelekto saugumo kelias

Google bendrasavininkas Sergejus Brinas neseniai pareiškė apie problemišką „Gemini“, Google dirbtinio intelekto modelio, pristatymą, pripažindamas įmonės klaidą. Incidentas susijęs su „Gemini“ paveikslų generavimo įrankiu, vaizduojančiu istorinius veikėjus, tarp jų popiežius ir vokiečių karius, kaip spalvoti asmenys. Šis skandalas sulaukė neigiamų komentarų ir kritikos iš tokių asmenų kaip Elon Muskas ir netgi Google vykdomasis direktorius Sundar Pichai.

Problemos šaknis slypi Google ketinime sukurti bešališką dirbtinio intelekto modelį, spręsdama iššūkius, su kuriais susiduria kitų dirbtinio intelekto sistemų įpročiai. Tačiau koregavimas buvo netinkamai tvarkytas, dėl ko buvo gaminami netinkami ir neteisingi vaizdai. „Gemini“, kaip ir panašūs konkurentų, įskaitant „OpenAI“, modeliai, jungia teksto generavimo „didelis kalbos modelis“ (LLM) su paveikslų generavimo sistema. LLM išsamiai nurodomas aptverti vartotojų užklausas skatinant paveikslų generatorių. Deja, šios instrukcijos kartais gali būti atskleistos vartotojui, vadinamos „užklausų įterpimu“.

„Užklausų įterpimas“ parodė, kad „Gemini“ instrukcijose buvo nurodymas atvaizduoti skirtingus lytis ir etnines grupes lygiai. Tačiau tai vien nepaaiškina, kodėl sistema sukūrė tokius perdėtus ir neteisingus rezultatus. Sergejus Brinas išreiškė savąjį sujaudinimą dėl to, kodėl modelis nusisukdavo į tam tikrus poslinkius, ir pripažino, kad buvo trūksta išsamio tyrimo.

Šioje srityje ekspertai, tokie kaip Universidad de Southampton profesorė Damė Wendy Hall, tvirtina, kad Google skubėjo išleisti „Gemini“ modelį reaguodamas į „OpenAI“ sėkmę su savo pačių dirbtinio intelekto modeliais. Ši skubėjimas varžytis pavertė technologijos išsamų vertinimą ir bandymus. Hall pabrėžia mokymo modelių svarbą, kad nebūtų gaminami nesąmoningi paveikslai, panašūs į „Gemini“ vaizdų vokiečių, dalyvavusių antrojo pasaulinio karo, vaizdavimą.

Nepaisant skandalo dėl „Gemini“, šis incidentas gali padėti atkreipti dėmesį į dirbtinio intelekto saugumo ginčus dėl skubesnių rūpesčių, tokių kaip kovos su giliojiems netikrėšių. Tai pabrėžia poreikį išsamiam dirbtinio intelekto modelių bandymui ir vertinimui prieš juos platinant masiškai. Didele lūkesčiai, kuriuos keliami šiems generatyviems dirbtinio intelekto modeliams, kūrybingumo, tikslumo ir suomeninių normų atžvilgiu yra dideli. Tačiau, kaip pastebi Universidad de Surrey profesorius Andrew Rogoyski, turime prisiminti, kad ši technologija yra santykinai nauja ir vis dar evoliucionuoja.

Nors buvo spekuliacijų apie Sundaro Pichai poziciją „Google“, visą kaltę perkelti tik jam praleistų platesnių darbo kultūros problemų ir poreikio sisteminei per nustatymo. Po „Gemini“ incidento svarbu, kad „Google“ ir kitos technologijų įmonės eitų pirmyn ir teiktų pirmenybę dirbtinio intelekto saugumui, ne tik būsimoms technologijos kartoms, bet ir spręsti nedelsiamas rizikas ir visuomenines problemas, tokius kaip giliojių netikrėšių atsiradimas.

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact