Nadzornici iz Silicijske doline diže uzbunu zbog tempa razvoja umjetne inteligencije

Napetosti rastu među informiranim osobama sa uvidima u unutarnje radove OpenAI-a, smještenog u srcu Silicijske doline. Ovi insajderi sve više izražavaju zabrinutost zbog brzog razvoja umjetne inteligencije (AI), posebno u vezi s sigurnosnim mjerama – ili njihovim nedostatkom – u nastojanju da se postigne Opća umjetna inteligencija (AGI).

Srž ovih zabrinutosti proizlazi iz očigledne namjere tima Sama Altmana da postigne AGI ranije nego što je očekivano, bez potrebnih sigurnosnih protokola. Izvori otkrivaju da je ovaj nastojanje dovelo do značajnih unutarnjih nemira u OpenAI-u, što je rezultiralo kratkim uklanjanjem Altmana i naknadnim povratkom na vlast. Incident je rezultirao postupnim odlaskom ostalih članova tima.

Nedavno obimno izvještavanje New York Timesa bacilo je svjetlo na korporativnu kulturu tvrtke sa sjedištem u San Franciscu, karakteriziranu nepažnjom i tajnovitošću. U tijeku je utrka za izgradnjom najsnažnijih AI sustava ikad realiziranih. Devet trenutnih i bivših zaposlenika OpenAI-a udružilo se zbog zajedničkih strahova da tvrtka ne čini dovoljno kako bi spriječila da njihovi sustavi postanu opasni.

OpenAI, poznat po izdanju ChatGPT-a 2022. godine, započeo je kao neprofitno istraživačko laboratorij, ali je od tada preusmjerio svoj fokus prema profitu i rastu, dok nastoji stvoriti AGI. Pojave su se javile da OpenAI koristi sile da ušutka zabrinutosti zaposlenika oko svojih tehnologija, uključujući restriktivne sporazume za one koji odu.

Zabrinutost zbog razvoja AGI-a potiče reakciju među stručnjacima industrije. Uočljivo je da je Daniel Kokotajlo, bivši istraživač za upravljanje u OpenAI-u, postao vodeći glas u skupini koja namjerava izbjeći potencijalne katastrofe. Ta kolektivna grupa objavila je otvoreno pismo pozivajući vodeće tvrtke, uključujući OpenAI, da usvoje veću transparentnost i zaštite uzbunjivače.

Drugi značajni članovi grupe su bivši zaposlenici OpenAI-a poput istraživača Williama Saundersa te troje drugih – Care Weineck, Jacob Hilton i Daniel Ziegler. Strah od odmazde od strane OpenAI-a naveo je mnoge da podrže pismo anonimno, s potpisima također dolazeći od pojedinaca u Google DeepMind-u.

Glasnogovornica OpenAI-a, Lindsey Helm, izrazila je ponos tvrtke na povijest isporuke sposobnih i sigurnih AI sustava, naglašavajući njihovu predanost rigoroznoj raspravi o upravljanju rizicima povezanima s tehnologijom. S druge strane, službenica iz Google-a odbila je komentirati.

Ova kampanja pojavljuje se u ranjivoj fazi za OpenAI, koja se još oporavlja od kontroverze s Altmanom i suočava se s pravnim bitkama oko navodnog kršenja autorskih prava. Osim toga, nedavni prikazi, kao što je hiper-realni glasovni asistent, okaljani su javnim sporovima, uključujući jedan s glumicom Scarlett Johansson.

Među posljedicama, ostavke visokih istraživača iz područja AI, Ilya Sutskevera i Jana Leikea iz OpenAI-a, protumačene su od mnogih kao korak unatrag u predanosti organizacije sigurnosti. Odlasci su nadahnuli druge bivše zaposlenike da progovore, povećavajući svoj ugled u obrani odgovornog razvoja AI. Bivši zaposlenici povezani s pokretom “učinkovitog altruizma” naglašavaju sprječavanje egzistencijalnih prijetnji AI-ja, privlačeći kritike od onih koji smatraju polje alarmantnim.

Kokotajlo, koji se pridružio OpenAI-u 2022. godine kao istraživač zadužen za predviđanje napretka AI-ja, revidirao je svoje prvotno optimistične predviđanja nakon svjedočenja nedavnim napredovanjima, sada dodjeljujući vjerojatnost od 50% pojave AGI-a do 2027. godine i 70% šanse za napredni AGI koji potencijalno može uništiti ili naškoditi čovječanstvu. Unatoč postojanju sigurnosnih protokola, uključujuću suradnju s Microsoftom koju je nazvao “Vijećem za pregled sigurnosti,” Kokotajlo je primijetio da hitnost izdavanja proizvoda često nadmaši temeljitu procjenu rizika.

Privacy policy
Contact