„Prioritetų keitimasis „OpenAI“ sukelia susirūpinimą dėl dirbtinio intelekto saugumo”

Pramonės ekspertas įspėja dėl dirbtinio intelekto saugumo rūpesčių
Aukštąją pramonės ekspertės sąvadą dirbtinio intelekto bendruomenėje, Jan Leike, neseniai paliko OpenAI, nurodydama nuo saugumo pasislinkimą lenkdama siekiant plėtoti pažangius dirbtinio intelekto produktus. Leike vadovavo komandai, skirtai superlygiavimui – sričiai, susijusiai su AI tikslų suderinimu su žmogiškomis vertybėmis. Nepaisant įmonės reputacijos, kaip AI tyrimų ribos stūmėjo, Leike pareiškia esanti įsitikinusi, kad saugumo prioritetizavimas lenkia.

Garsusis AI tyrėjas skatina saugumo nukreiptą požiūrį
Išmokęs kaip AI tyrėjas, Leike ilgai palaikė svarbą ruoštis kitai AI pažangos bangai. Jis pabrėžia kylančius pavojus, susijusius su mašinomis, konkuruojančiomis su žmogaus intelektu, ir ragina didesnį dėmesį skirti potencialioms visuomenės pasekmėms. Vizualizuodamas ateitį, kurioje dirbtinis bendras intelektas (DBI) yra realybė, jis tvirtina, kad OpenAI turi kritinę atsakomybę globaliai bendruomenei, kad saugumas būtų jų misijos pirmaeilėje dalyje.

Įmonė patvirtina vidaus restruktūrizaciją išėjimų akivaizdoje
OpenAI vadovybė, įskaitant generalinį direktorių Sam Altman, pripažino Leike rūpesčius, išsakė jam padėką už indėlį ir patvirtino įsipareigojimą saugumui. Norėdami perorganizuoti savo iniciatyvas, OpenAI išsiskyrė Leike superlygiavimo komandą, nusprendę narių paskirstymą skirtingose tyrimų skyriuose. Šių pokyčių pasekmėje bendrasis įkūrėjas Ilya Sutskever taip pat pranešė apie savo išėjimą siekdamas pradėti naują asmeninį projektą. Pripažįstas dėl savo galingo intelekto, Jakub Pachocki perima pareigas vyriausiu mokslininku, Sam Altman išsakė pasitikėjimą Pachockio gebėjimu subalansuoti inovacijas ir saugumą. OpenAI lieka aikštelėje, kad ir toliau tobulintų savo AI modelius, neseniai pristatydama atnaujinimą su subtiliau su žmogumi panašiais sąveikos gebėjimais.

Svarbus dirbtinio intelekto saugumo reikšmė po technologinių pažangų
Dirbtinio intelekto (AI) saugumas yra kritiškas rūpestis dirbtinio intelekto tyrimų srityje dėl potencialių rizikų, susijusių su vis sudėtingesnių sistemų kūrimu, ypač susijusį su dirbtiniu bendruoju intelektu (DBI). DBI reiškia AI sistemos gebėjimą suprasti, mokytis ir taikyti žinias tokiu būdu, kad jos būtų neišskiriamas nuo žmogaus intelekto. DBI plėtojimas kelia sudėtingus etinius ir saugumo klausimus, kadangi šios sistemos gali elgtis neaiškiu ar žalingu būdu žmonėms, jei jos nebus tinkamai suderintos su žmogiškomis vertybėmis ir tikslais.

Svarbiausi klausimai ir iššūkiai dėl AI saugumo
Pagrindinis iššūkis AI saugumui yra užtikrinant, kad pažangios AI sistemos elgtųsi naudingai žmonijai. Tai apima sprendžiant klausimus, tokius kaip:
– Kaip galime garantuoti AI tikslų suderinimą su žmogaus ketinimais?
– Kokios etinės struktūros turėtų vesti AI plėtrą ir panaudojimą?
– Kaip išvengti stiprios AI piktnaudžiavimo piktnaudžiavimu nesąžiningosiomis veiklomis?
– Kokios priemonės gali užtikrinti aiškumą ir atskaitomybę AI sprendimų priėmimo procese?

Kontroversijos dažnai kildavo dėl balanso tarp greitos AI plėtros ir griežtų saugumo priemonių. Priešininkai paprastai byloja, kad pernelyg didelis atsargumas gali sutramdyti inovacijas ir padėti įmonėms konkurencinį pranašumą. Tuo tarpu griežtų saugumo protokolų pritariančiaiems nerimą kelia, kad nepakankamas dėmesys AI rizikoms galėtų sukelti nenori
kitokios ir galimai nenuginčijamos pasekmės.

Dirbtinio intelekto saugumo prioritizavimo pranašumai ir trūkumai
Pranašumai:
1. Sustabdo potencialią visuomenės žalą iš nekontroliuojamo AI.
2. Ugdys viešąjį pasitikėjimą AI technologijomis ir jų taikymais.
3. Prisideda prie etinių standartų kūrimo dėl AI naudojimo.
4. Padeda nustatyti tarptautinius normas ir reglamentus dėl AI saugumui.

Trūkumai:
1. Gali sulėtinti AI plėtros ir inovacijų tempą.
2. Galėtų sukelti papildomų finansinių išlaidų tyrimams ir atitikimui.
3. Galėtų padėti įmonėms, prioritizuojančioms saugumą, į konkurencinį pranašumą prieš tuos, kurie nenori.
4. Gali būti laikoma ribojanti, trukdančia kūrybiškam ir ribai skatinančiam tyrimui.

Daugiau informacijos ir diskusijų apie dirbtinio intelekto plėtros ir saugumo naujienas galite rasti šiose patikimuose šaltiniuose:
OpenAI
AI for Humanity
DeepMind
AI Ethics Lab

Straipsnis pabrėžia, kad subjektai, tokie kaip OpenAI, kurie yra dirbtinio intelekto tyrimų tinklo kraštuose, yra įvairūs dėl to, kaip jie subalansuoja technologinę pažangą su viešųjų interesų apsaugojimu. Įtakingų asmenų, tokių kaip Leike ir Sutskever, nusižengimai žymi svarbias momentos AI tyrimų organizacijoms, ne tik dėl jų vidinių dinamikos, bet ir dėl jų visuomenės poveikio ir ateities AI saugumo tyrimų.

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact