Silīcijas ielejas iekšējie aprindži brīdina par AI attīstības tempu

Spriedzes pieaug starp informētām personībām ar izpratni par OpenAI iekšējo darbību, kas atrodas Silīcija ielejā. Šie iekšējie apraksta satraukumu par mākslīgā intelekta (AI) ātro attīstību, it īpaši attiecībā uz drošības pasākumiem — vai to trūkumu — AGI (vispārējā mākslīgā intelekta) meklējumos.

Šī satraukuma pamatā ir Samā Altmana komandas acīmredzamais nodoms panākt AGI ātrāk nekā paredzēts, nenodrošinot nepieciešamos drošības protokolus. Avoti atklāj, ka šis meklējums izraisīja ievērojamus iekšējos pārdzīvojumus OpenAI, kas noveda pie Altmana īslaicīgas novēršanas un turpmākas atgriešanās pie varas. Šī incidenču rezultātā palielinājās citu komandas locekļu aiziešana.

Nesenā plašā pārskata publikācija The New York Times apgaismo uzņēmuma no Sanfrancisko kultūru, kas raksturojas ar rūgtumu un slepenību. Sacensība, lai izveidotu jebkad reģistrētos spēcīgākos AI sistēmas, ir pilnā gangā. Deviņi pašreizējie un bijušie OpenAI darbinieki ir sapulcējušies, jo dalās bažas, ka uzņēmums nedarīs pietiekami daudz, lai novērstu sistēmu kļūšanu bīstamu.

OpenAI, kas ir pazīstama ar ChatGPT izlaišanu 2022. gadā, sākotnēji bija bezpeļņas pētniecības laboratorija, bet kopš tā laika tā ir izmainījusi fokusu uz peļņas un izaugsmes gūšanu, cenšoties izveidot AGI. Ierosinājumi ir parādījušies, ka OpenAI ir izmantojusi spēcīgus taktikas paņēmienus, lai apklusinātu darbinieku bažas par savām tehnoloģijām, ieskaitot ierobežojošus nolīgumus tiem, kas aiziet.

Bezkaunība par AGI attīstību liek rīkoties nozares ekspertiem. It sevišķi Daniel Kokotajlo, bijušais OpenAI pārvaldības pētnieks, ir kļuvis par vadošo balsi grupā, kas ir apņēmusies novērst potenciālas katastrofas. Šis kolektīvs ir publicējis atvērto vēstuli, aicinot vadošās uzņēmumus, tai skaitā OpenAI, pieņemt lielāku caurspīdīgumu un aizsargāt zvana izdotos.

Citi būtiski grupas locekļi ir bijušie OpenAI darbinieki kā pētnieks Viljams Saunders un trīs citi, Kara Veineka, Džeikobs Hiltons un Dāniels Cīglers. OpenAI iebiedru bailes no represijām ir novedušas pie lielas atbalsta vēstulē anonīmi, ar parakstiem arī no cilvēkiem Google DeepMind uzņēmumā.

OpenAI pārstāve Lindsi Helma ir izteikusi lepnumu par uzņēmuma vēsturi ar spējīgām un drošām AI sistēmām, uzsverot viņu apņemšanos rūpīgi apspriest risku saistīto ar tehnoloģijām. Tāpat Google pārstāvis atteicās komentēt.

Šī kampaņa attīstās OpenAI ievainojamā periodā, kad tas joprojām atgūstas no kontroversālā Altmana afēras un saskaras ar tiesvedību par apgalvoto autortiesību pārkāpumu. Turklāt nesenās prezentācijas, kā piemēram, hiperrealistiskais balss asistents, ir piedzīvojušas publiskas strīdus, ieskaitot vienu ar aktrisi Skarletu Johansonu.

Kā viens no sekām, ir jāpārceļas no sēdesēņu AI pētniekiem Iljas Sutskevera un Jāņa Leikes no OpenAI, ko daudzi ir interpretējuši kā atkāpšanos organizācijas saistībā ar drošību. Šīs aiziešanas ir iedvesmojušas citus bijušos darbiniekus runāt, palielinot viņu nozīmi atbildīgas AI attīstības aizstāvēšanā. Bijušie darbinieki, kas saistīti ar “efektīvā altruisma” kustību, uzsvēra eksistenciālo AI draudu novēršanu, piesaistot kritiku no tiem, kas uzskata, ka šo jomu var uzlūkot kā trauksmainu.

Kokotajlo, kurš 2022. gadā pievienojās OpenAI kā pētnieks, kam doti uzdevumi prognozēt AI attīstības gaitu, pārskatīja sākotnējās optimismu pilnas prognozes, redzot nesenos progresus, piešķirot 50% varbūtību, ka AGI parādīsies līdz 2027. gadam un 70% iespējamību, ka uzlabotais AGI var potenciāli iznīcināt vai ietekmēt cilvēci. Neraugoties uz drošības protokoliem, ieskaitot sadarbību ar Microsoft, ko sauc par “Drošības pārskatu padomi”, Kokotajlo novēroja, ka produktu izlaišanas steiga bieži pārsniedz rūpīgu risku novērtēšanu.

Svarīgākie izaicinājumi un kontroverses:
– AI attīstības ātrums pret drošības protokolu īstenošanu: uzņēmumi, cenšoties būt priekšplānā AI tehnoloģijā, pastāv risks, ka drošības apsvērumi var tikt novietoti novārtā, steigas laikā inovējot.
– Bailes no AGI potenciālajām sekām: AGI rada eksistenciālas bažas, jo tas varētu pārspēt cilvēku intelektu visās jomās. Iekšējie bažās, ka bez pareizām drošības tīkliem AGI varētu novest pie rezultātiem, kas būtiski kaitē cilvēcei.
– Uzņēmumu slepenība un atvērtība: Pastāv spriedze starp vērtīgām tirdzniecības noslēpumiem, kas veicina AI attīstību, un nepieciešamību pēc caurspīdīguma, kas nodrošina plašāku kopienas informētību un sagatavošanos potenciāliem riskiem.
– Darbinieku attieksmes un noslēpuma nolīgumi (NDA): Iezīme par ierobežojošiem nolīgumiem liecina, ka darbinieki var tikt neatbilstoši ietekmēti klusēšanā, kas varētu radīt ētiskas raizes un kavēt atklātu diskusiju par tehnoloģijas virzību.

Prieki no ātrās AI attīstības:
– Paātrināta inovācija var novest pie izlīdzināšanās medicīnā, loģistikā, vides tehnoloģijās un citās jomās.
– Ekonomiskas izaugsmes potenciāls, kad jaunas nozares un pakalpojumi parādās ap jaunām, progresīvām AI sistēmām.
– Paātrināšanās pret AGI var nodrošināt priekšroku tiem uzņēmumiem un valstīm, kas noteiks standartus AI pārvaldībā un izmantošanā.

Trūkumi no ātrās AI attīstības:
– Neapmierinoši drošības pasākumi var novest pie neplānotām sekām, ieskaitot tendenciāli ietekmīgas lēmumu pieņemšanas, privātuma pārkāpšanu un darba vietu aizvietošanu.
– Steiga attīstībā var novest pie rūpīgu ētikas apsvērumu apsīšanas, kas var novest pie ļaunprātīgas vai kaitīgas sabiedrības ietekmes.
– Potenciāls, ka AGI kļūst nekontrolējams vai tiek ļaunprātīgi izmantots, kad tas pārsniedz cilvēku intelekta līmeņus.

Relevantu saites:
– Lai iegūtu vairāk ieskatu par jaunākajiem AI attīstības jautājumiem un pārvaldību, jūs varat apmeklēt AI pētniecības organizācijas OpenAI galveno mājas lapu vietnē OpenAI.
– Lai iepazītos ar perspektīvām par atbildīgu AI, apmeklējiet Future of Life Institute, kas nodarbojas ar saistītām tēmām, vietnē Future of Life Institute.
– Lai diskutētu un iegūtu vadlīnijas par AI drošības protokoliem un ētiku, skatieties IEEE Glābēja iniciatīvas galvenās vietnes autonomo un inteliģento sistēmu etikas jautājumos, vietnē IEEE.

Lūdzu, ņemiet vērā, ka šīs saites ir uz attiecīgu organizāciju galvenajām domēniem saskaņā ar norādēm. Tās nav tiešie saiti uz konkrētiem rakstiem vai apakšlapām.

Privacy policy
Contact