Rūpes kyla, kai OpenAI skyriaus, atsakingas už dirbtinio intelekto saugą, skiriasi.

OpenAI, pionierinis amerikiečių startuolis, kuris sukėlė dirbtinio intelekto bumas, prasidėjusį dėl „ChatGPG“, susiduria su didėjančia susirūpinimu dėl savo pozicijos dėl dirbtinio intelekto rizikos. Ši nerimą kelia faktas, kad įmonė išsklaidė tai, kas buvo žinoma kaip jų „Super Sutapimo Komanda“, kaip pranešė kelios JAV žiniasklaidos priemonės 2024 m. gegužės 17 d.

Įkurta liepos mėnesį 2023 m., Super Sutapimo Komanda buvo įsipareigota įdiegti žmogiškas vertybes ir tikslus į dirbtinio intelekto modelius, siekiant, kad jie būtų kuo naudingesni, saugesni ir patikimesni. Deja, ši iniciatyva staiga buvo nutraukta po vos dešimties mėnesių dėl vidinio disfunkcionalumo.

„AI Sutapimo“ idėja yra užtikrinant, kad dirbtiniai intelekto sistemos nepasiveržtų prieš žmogaus ketinimus. Tai buvo svarbi tyrimo sritis „OpenAI“, kuri turi ambicingą tikslą plėtoti Dirbtinį Bendrąjį Intelektą (AGI), kuris viršyja žmogaus intelektą. Tačiau, nepaisant pastangų plėtoti tokį AGI, „OpenAI“ yra pripažinusi savo tinklaraštyje, kad žmonija vis dar neturi visiškos kontrolės per šią technologiją.

„OpenAI“ pranešimas turėjo bangą, paskatindamas kai kurių svarbių figūrų, tokių kaip mokslininkai Ilya Sutskever ir Jan Leike, padaryti pareiškimąs išėjus per vieną dieną po „OpenAI“ naujausio modelio, GPT-4o, pristatymo. Leike savo išėjimą pareiškė socialiniuose tinkluose, nurodydamas nesutarimus su „OpenAI“ vadovais dėl pagrindinių prioritetų. Tolimesni pranešimai patvirtino, kad Leike prisijungė prie „Anthropic“, konkurento, įkūrusio buvęs „OpenAI“ personalas, pagrindžiantį smalsumo AI pramonėje.

Kontroversijos apima ne tik superintelligentinių AI sistemų sutapimo su žmogaus ketinimais, bet ir prioritetų pateikimą komerciniam augimui virš AI saugos – pusiausvyrą, su kuria „OpenAI“ atrodo kovojanti. Ši diskusija yra svarbi, kadangi AI nepatikrintas pažanga gali lemti nepriekaištingą rizikos ir egzistencinių grėsmių padėtį.

Saugios, suderintos ateities su superintelektu yra svarbus iššūkis. Šis išsiskaidymas rodo, kad atėjo laikas naujiems veikėjams šiame lauke nešti šį šlovės gaublę, užtikrinant, kad mūsų technologiniai šuoliai nepralenktų mūsų etinių ir saugos svarstymų.

Kodėl AI Sutapimas svarbus?

AI Sutapimas yra svarbus, nes tai susiję su užtikrinimu, kad tobulėjant dirbtiniams intelekto sistemoms ir joms tampa protingesnėmis ir savarankiškesnėmis, jų veiksmai ir sprendimai išliktų suderinti su žmogiškomis vertybėmis ir etika. Netinkamo suderinimo atveju kyla rizika, kad AI gali veikti ne žmonių labui, potencialiai sukeliant žalą ar elgiantis taip, kad nesuderintų su mūsų tikslais ir ketinimais. Tai ypač pasakytina pradedant plėtoti AGI, kur AI sistemos gali priimti sudėtingus sprendimus su tolimais padariniais.

Kokie pagrindiniai iššūkiai susiję su OpenAI „Super Sutapimo komandos“ išsiskaidymu?

Išsiskaidymas kelis keletą iššūkių. Pirma, kyla klausimas apie AI kūrėjų įsipareigojimą saugumui ir etinėms jų technologijų pasekmėms. Antra, tai potencialiai sulėtina pažangą kritinėje tyrimų srityje, būtinoje užtikrinant saugų AGI tobulėjimą. Trečia, vidaus disfunkcija prestižiniuose AI organizacijose gali lemti talentų eroziją, kadangi geriausieji mokslininkai gali ieškoti aplinkų, kur jie jaučiasi, kad AI sauga teikiama pirmenybė, kaip nurodė Jan Leike išėjimas.

Kokie yra kontroversijos, apie kurias apgailestauja įmonės „OpenAI“ sprendimas?

Kontroversijos iškyla iš susirūpinimo, kad „OpenAI“ pateikia komercinius interesus virš AI plėtros saugumo ir etikinių svarstymų. Šis prioritetinis požiūris galėtų padaryti kompromisą dėl saugumo priemonių išsamumo, siekiant sparčios pažangos ir naujų AI modelių paleidimo, galbūt neigiamai veikiant vartotojus ir visuomenę bendrai. Be to, kyla diskusijų, ar „OpenAI“ gali išlikti tikru savo misijos, užtikrinti, kad AGI naudos visai žmonijai, jei finansiniai tikslai viršija saugumo rūpesčius.

Kokie yra situacijos privalumai ir trūkumai?

Privalumai:
     – „OpenAI“ tęstinė pažanga dirbtiniame intelekte gali lemti naudingų naujų technologijų ir paslaugų atsiradimą trumpuoju laikotarpiu.
     – Pokyčiai „OpenAI“ gali skatinti atviresnes diskusijas ir sustiprinti sąmoningumą apie AI saugumo svarbą.

Trūkumai:
     – „Super Sutapimo komandos“ išsiskaidymas gali sutrikdyti svarbų tyrimą, kad būtų įdiegtos žmogiškos vertybės į AI sistemas.
     – Tai gali reikšti rūpestingą tendenciją, kurioje komerciniai imperatyvai trumpina saugumo svarstymus AI plėtros procese, galimai lemti kenksmingus ar nenormuotus padarinius.
     – Šis žingsnis gali pažeisti viešųjų pasitikėjimą AI ir įmonėmis, kurios plėtoja šias technologijas.

Pasiūlyti susiję nuorodai:
     – Norintiems suprasti plačias AI ir jo valdymo pasekmes, apsilankykite „Future of Life Institute“ svetainėje futureoflife.org.
     – Norintys ištirti naujausius dirbtinio intelekto plėtros ir susijusių etinių diskusijų dalykus, apsilankykite AI Now Institute svetainėje ainowinstitute.org.

Pamirškite, kad negaliu patikrinti URL tikrumo, nes mano naršymo galimybės yra išjungtos, tačiau šie URL siūlomi remiantis patikimomis organizacijomis žinomomis savo darbe dirbtinio intelekto saugumo ir etikos srityse.

The source of the article is from the blog revistatenerife.com

Privacy policy
Contact