Silicon Valley siseringid hoiatavad tehisintellekti arengutempo üle

Teabeisikutest isiksuste vahel kasvavad pinged, kellel on ülevaade Silicon Valley südames asuva OpenAI sisemisest toimimisest. Need sissepoole vaatavad isikud on üha enam väljendamas muret tehisintellekti (AI) kiire arengu pärast, eriti seoses ohutusmeetmetega — või nende puudumisega — Üldise Tehisintellekti (AGI) poole püüdlemisel.

Need mured tulenevad ilmsest kavatsusest saavutada AGI varem kui oodatud Sam Altmani meeskonna poolt, ilma vajalike ohutusprotokollideta paigas. Allikad näitavad, et see püüe tekitas märkimisväärset sisemist rahutust OpenAI-s, mida tõendas Altmani ajutine eemaldamine ja järgnenud tagasitulek võimule. See intsident viis teiste meeskonnaliikmete järkjärgulise lahkumiseni.

Viimased põhjalikud raportid The New York Times’ilt valgustavad San Francisco asuva ettevõtte korporatiivkultuuri, mis iseloomustab hoolimatust ja saladuskatte all toimetamist. Rass ehitada kõige võimsamaid tehisintellektisüsteeme, mis kunagi tehtud on, on täies hoos. Üheksa praegust ja endist OpenAI töötajat on ühinenud ühised mured, et ettevõte ei tee piisavalt, et vältida nende süsteemide muutumist ohtlikuks.

OpenAI, kes on tuntud 2022. aastal ChatGPT väljalaske poolest, alustas mittetulundusuurimuslaborina, kuid on hiljem keskendunud kasumile ja kasvule, pingutustes luua AGI-d. On ilmunud süüdistusi, et OpenAI on kasutanud jõumeetodeid, et vaigistada töötajate muresid nende tehnoloogiate, sealhulgas piiravate lepingute osas nendele, kes lahkuvad.

Ärevus AGI arengu pärast sunnib tööstuse asjatundjaid tegutsema. Märgatavalt on Daniel Kokotajlo, endine OpenAI juhtivuurija, saanud juhtivaks hääleks grupis, mis kavatseb vältida võimalikke katastroofe. See rühmitus on avaldanud avaliku kirja, kutsudes juhtivaid ettevõtteid, sealhulgas OpenAI’d, võtma vastu suuremat läbipaistvust ja kaitsma teavitajaid.

Teised silmapaistvad rühma liikmed on endised OpenAI töötajad nagu uurija William Saunders ja kolm teist, Cara Weineck, Jacob Hilton ja Daniel Ziegler. Hirm tagasilöögi eest OpenAI poolt on viinud paljusid kirja toetama anonüümselt, allkirju on andnud ka inimesed Google DeepMind’st.

OpenAI pressiesindaja Lindsey Helm väljendas uhkust ettevõtte ajaloo üle, mis on pakkunud võimekaid ja turvalisi tehisintellektisüsteeme, rõhutades nende pühendumust rangale arutelule riskide juhtimise teemal seotud tehnoloogiaga. Samal ajal keeldus Google ametnik kommentaaridest.

See kampaania tuleb esile OpenAI jaoks haavataval perioodil, mis taastub endiselt kontroversiaalsest Altmani afäärist ja seisab silmitsi kohtuvaidlustega väidetava autoriõiguse rikkumise üle. Lisaks on hiljutised demonstratsioonid, nagu hüperrealistlik häälassistendi näide, rikutud avalike vaidlustega, sealhulgas üks näitlejannaga Scarlett Johansson.

Järelmitest on näha, et vanemate tehisintellekti uurijate Ilya Sutskeveri ja Jan Leike’i lahkumist OpenAI’st tõlgendatakse paljude poolt tagasikäiguna organisatsiooni kohustuse poole ohutuse tagamisel. Need lahkumised on innustanud teisi endisi töötajaid avaldama kriitikat, suurendades nende staatust vastutustundliku tehisintellekti arengu kaitsel. Endised töötajad, kes on seotud “efektiivse altruismi” liikumisega, rõhutavad eksistentsiaalsete tehisintellekti ohtude ärahoidmist, meelitades kriitikat nende suhtes, kes peavad valdkonda hüsteeriliseks.

Kokotajlo, kes liitus OpenAI-ga 2022. aastal teadurina, kelle ülesandeks oli AI progressi prognoosimine, muutis oma algselt optimistlikke prognoose nähes hiljutisi edusamme, andes nüüd 50% tõenäosuse AGI ilmumiseks aastal 2027 ja 70% võimaluseks, et arenenud AGI võib põhjustada inimkonnale kahju või hävitada. Hoolimata paigas olevatest ohutusprotokollidest, sealhulgas koostööst Microsoftiga, mis on nimetatud “Ohutusülevaate Nõukoguks”, märkis Kokotajlo, et toodete kiire väljaandmise kiirus varjustab sageli põhjalikku riskihindamist.

Põhilised Tähelepanu Keskpunktis Olevad Väljakutsed ja Vaidlused:

AI arengu tempo
abal versus ohutusprotokollide rakendamine: Kuna ettevõtted püüavad olla tehisintellekti tehnoloogia esirinnas, on oht, et nad võivad ohutuskaalutlusi järeltõrjuda, kiirustades innovatsiooni suunas.

AGI võimalike tagajärgede hirm: AGI tõstab eksistentsiaalseid küsimusi, kuna see võiks ületada inimintellekti kõigis valdkondades. Insiders kardavad, et ilma korralike turvavõrkudeta võib AGI viia tagajärgedeni, mis on kahjulikud inimkonnale.

Korporatiivne saladuslikkus ja avatus: Väärtusliku tehnoloogiarenduse tõukedraivi ja vajaduse vahel läbipaistvuse järele, mis tagab, et laiem kogukond on teadlik ja valmis potentsiaalseteks ohtudeks.

Töötajate kohtlemine ja konfidentsiaalsuskokkulepped (NDAd): Piiravate lepingute mainimine viitab sellele, et töötajaid võidakse panna vaigistama, mis võib tekitada eetilisi küsimusi ja takistada avatud arutelu tehnoloogia suuna üle.

Kiire AI arendamise Eelised:
– Kiirendatud innovatsioon võib viia läbimurreteni meditsiinis, logistikas, keskkonnatehnoloogias ja mujal.
– Majanduslik kasvupotentsiaal uute tööstuste ja teenuste tekke ümber kõrgtehnoloogiliste AI süsteemide.
– Liikumine AGI suunas võiks anda esimeste tegutsejate eelise ettevõtetele ja riikidele, seades standardid AI valitsemises ja rakendamises.

Kiire AI Arendamise Puudused:
– Ebapiisavad ohutusmeetmed võivad viia soovimatute tagajärgedeni, sealhulgas ebaõiglaste otsusteni, privaatsuse rikkumiseni ja töökoha asendamiseni.
– Kiirustatud arendamine võib mööda minna põhjalikest eetilistest kaalutlustest, viies võimaliku kuritarvitamiseni või kahjulike ühiskondlike mõjude tekkeni.
– AGI potentsiaal pole kontrollitav või seda võidakse kasutada kurjalt, kui see ületab inimintellekti taseme.

Asjakohased Lingid:
– Rohkem teadmisi viimaste AI arenduste ja valitsemise kohta leiate AI uurimusorganisatsiooni OpenAI põhilehelt aadressil OpenAI.
– Vastutustundliku AI perspektiivide uurimiseks külastage Future of Life Institute’i veebisaiti, kes tegeleb sellega seotud teemadega, aadressil Future of Life Institute.
– AI ohutusprotokollide ja eetika arutelude ja juhiste uurimiseks viituge IEEE globaalsele algatusele autonoomsete ja intelligentsüsteemide eetika kohta aadressil IEEE.

Märkige, et eespool olevad lingid on asjakohaste organisatsioonide põhimängupaikadele vastavalt juhistele. Need pole otsesteks linkideks konkreetsetele artiklitele ega alamlehtedele.

Privacy policy
Contact