Pasaulio technologijos titanai susitaria dėl skubios dirbtinio intelekto sustabdymo strategijos.

Technologijų lyderiai ir vyriausybės vienijasi, siekdami įtvirtinti dirbtinio intelekto apsaugos priemones. Technologijų pramonės gigantai, įskaitant „Microsoft“, „OpenAI“, „Anthropic“ ir dar dešimt trijų įmonių, sutarė dėl pirmaujančio politikos karkaso. Jei kuriama naujų dirbtinio intelekto modelių plėtra imtų nesulaikomai sparčiu greičiu, jie susitarė sustabdyti pažangą, kad būtų išvengta galimų katastrofiškų scenarijų, panašių į tikrąjį „Terminatoriaus“ įvykį.

Sudėtingi veiksmai, siekiant mažinti dirbtinio intelekto rizikas. Šią sutartį pasirašė Seule, kur organizacijos ir vyriausybės atstovai susirinko nuspręsti dėl savo krypties, susijusios su dirbtinio intelekto plėtra. Susitarimas yra pagrįstas „išjungimo mygtuko“ – įsipareigojimo sustabdyti pažangiausių jų dirbtinio intelekto modelių tobulinimą, jei jie viršytų iš anksto apibrėžtus rizikos ribas.

Trūksta apibrėžtų veiksmų ir aiškumo. Nepaisant susitarimo, pastebima konkrečių veiksmų stoka arba nustatyto „pavojingo“ ribos apibrėžimo, kuris aktyvuotų išjungimo mygtuką. Tai kelia klausimą dėl politikos vykdymo ir efektyvumo.

Remiantis Yahoo naujienų surinktais pranešimais, ekstremalūs atvejai įtikintų organizacijas nepaleisti naujų dirbtinio intelekto modelių, jei kontrolės priemonės yra nepakankamos. Stambiausi žaidėjai, tokie kaip „Amazon“, „Google“ ir „Samsung“, taip pat įsipareigojo paremti šią iniciatyvą, rodančią plačiai išplitusį pramonės sutarimą.

Diskusijos su dirbtinio intelekto ekspertais, pvz., kaip pranešta Unboxholics, skatina nerimą dėl žymių rizikų, kurių dėka buvo priimtas šis vieningas sprendimas. Šis žingsnis atitinka žinomų akademinių veikėjų Geoffrey Hintono prognozes, įspėjančias apie dirbtinio intelekto potencialą pakeisti žmones įvairiose darbo srityse, rodančią darbo jėgos dinamikos gilų pokytį.

Svarbios problemos ir iššūkiai, susiję su dirbtinio intelekto skubaus stabdymo strategijomis:

1. Apibrėžti „pavojingas“ ribas: Svarbus iššūkis yra nustatyti tikslius parametrus, nustatančius, kada dirbtinis intelektas tampa per rizikingas, kad būtų viršytas jo plėtros tęstinumas. Be aiškių apibrėžimų, bet koks susitarimas sustabdyti veiklą gali būti subjektyvus ir priklausomas nuo interpretacijos.

2. Vykdymo galimybė: Užtikrinti, kad visos šalys laikytųsi stabdymo susitarimo, yra problematiška, ypač atsižvelgiant į globalių reglamentavimo struktūrų trūkumą, skirtų būtent dirbtiniam intelektui.

3. Technologiniai gebėjimai: „Išjungimo mygtuko“ įgyvendinimas pats savaime yra techninė problema, kuri reikalauja patikimų mechanizmų, įmontuotų į dirbtinio intelekto sistemas, kas yra sudėtingas uždavinys.

4. Konkurenciniai spaudimai: Įmonės gali nenorėti sustabdyti arba sulėtinti tyrimus, jei konkurentai to nedarė, kuris gali lemti potencialų ginkluotą varžybų lauką dirbtinio intelekto plėtros srityje.

5. Duomenų privatumas ir sauga: Pažengusios dirbtinio intelekto sistemos gali tvarkyti didelius duomenų kiekius, o jų staigus išjungimas gali kelti duomenų privatumo ir saugumo rizikas.

Dirbtinio intelekto stabdymo susitarimo pranašumai:
– Didesnis saugumas: Tai suteikia atsarginę galimybę prieš sudėtingų dirbtinio intelekto sistemų neišvengiamus padarinius.
– Visuomenės pasitikėjimas: Toks susitarimas gali padidinti visuomenės pasitikėjimą dirbtinio intelekto technologijomis ir jų plėtotės subjektais.
– Bendra atsakomybė: Tai skatina atsakomybės ir bendradarbiavimo kultūrą tarp technologijų įmonių.

Dirbtinio intelekto stabdymo susitarimo trūkumai:
– Inovacijų prevencija: Per daug atsargūs arba neaiškūs nurodymai gali slopinti inovacijas.
– Konkurenciniai pralaimėjimai: Entitetai, kurie laikosi susitarimo, gali atsilikti nuo tų, kurie to nedaro, ypač regionuose, turinčiuose skirtingus reglamentavimo ar vykdymo lygius.
– Sudėtingas vykdymas: Praktiniai „išjungimo mygtuko“ įgyvendinimo ir tvarkymo aspektai gali būti sunkūs ir reikalaujantys daug išteklių.

Nors yra pasiūlytų pranašumų ir pastebimų iššūkių, šis vystymasis rodo, kaip technologijų pramonė vertina savo atsakomybę formuojant dirbtinio intelekto ateitį. Pasiekti pažangią dirbtinio intelekto jėgą priverčia apmąstyti saugiklius, kurie apsaugotų nuo žalingų rezultatų. Labai svarbu tęsti tyrinėjimus ir dialogus tarp suinteresuotų šalių, kad būtų efektyviai tobulinami ir vykdomi tokie karkasai.

Norintiems gilesnio susipažinimo su šiuo susitarimu, patikimą informaciją ir diskusijas apie dirbtinio intelekto politiką ir saugumą galima rasti pagrindiniuose organizacijų tinklalapiuose, tokiose kaip Dirbtinio Intelekto Pažangos Asociacija (AAAI) skirtame AAAI ir „Gyvybės Ateinimo Institutas“ skirtame Gyvybės Ateinimo Institutas. Svarbu sekti šias išteklias, kad būtumėte informuoti apie besivystančius dirbtinio intelekto vystymus, politiką ir diskusijas.

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact