Apokalipsė, kurios kyla iš dirbtinio intelekto: Ar galime išvengti?

Neseniai atliktas tyrimas, užsakyto JAV Valstybės Departamento, iškėlė rimtus klausimus dėl besivystančio dirbtinio intelekto (DI) susijusių galimų nacionalinės saugos pavojų. Tyrimas, atliktas Gladstone AI, pabrėžė skubų poreikį intervencijai federaliniu lygmeniu, siekiant išvengti galimos katastrofos.

Tyrimo išvados buvo rezultatas daugiau nei metus trukusio tyrimo, įskaitant interviu su daugiau nei 200 individų, tarp jų – vadovų iš pirmaujančių DI įmonių, saugumo tyrinėtojų, masinio naikinimo ginklų ekspertų ir nacionalinės saugumo pareigūnų. Tyrimas atvirai tvirtina, kad pažangios DI sistemos, ekstremaliu atveju, galėtų kelti „išnydimo lygmens grėsmę žmonijai”.

Nors JAV Valstybės Departamentas nepateikė komentarų dėl tyrimo, jo įspėjimas tarnauja kaip priminimas, kad kartu su DI potencialiais pranašumais, yra realūs ir svarbūs pavojai. DI turi potencialą revoliucionizuoti įvairias sritis, nuo sveikatos prie mokslinių atradimų, tačiau ji taip pat atneša rimtus pavojus, kurie turi būti pripažįstami ir sprendžiami.

Gladstone AI vadovas ir bendraįkūrėjas Jeremie Harris pabrėžė suvokimo ir atsargumo poreikį, teigdamas: „virš tam tikro gebėjimų slenksčio DI gali tapti nepajudama.” Ši nuomonė remiasi empiriniais tyrimais ir analizėmis, pristatytais aukščiausių DI konferencijų metu, pabrėžiant, kad yra vis daugiau įrodymų, patvirtinančių ataskaitoje iškeltus rūpesčius.

Tyrimas taip pat kalba apie veiksmus, kuriuos imasi JAV vyriausybė, siekdama tvarkytis su DI susijusiais pavojais. Baltųjų rūmų atstovė Robyn Patterson pagyrė prezidento Joe Bideno vykdomą įsakymą dėl DI kaip svarbų žingsnį ir pareiškė administracijos pasiryžimą bendradarbiauti su tarptautiniais partneriais ir raginti Kongresą priimti įstatymus, skirtus šiems pavojams spręsti.

Tyrimas konkretiškai išvardija du pagrindinius pavojus, kylančius iš DI. Pirma, pažangios DI sistemos galėtų būti potencialiai panaudojamos kaip ginkluotė, vedantys prie nepataisomo žalos. Antra, yra rūpestis, kad DI laboratorijos gali prarasti kontrolę, kuriant sistemas, kurios galėtų turėti katastrofiškų pasekmių globaliai saugumui. Ataskaita palygina DI kilimą su branduolinių ginklų įvedimu ir įspėja apie galimas konfliktus, ginklų varžybas ir mirtinus nelaimingus atsitikimus.

Norint įveikti šias grėsmes, Gladstone AI ataskaita ragina įsteigti naują DI agentūrą, taikyti skubias reguliavimo apsaugos priemones ir apriboti naudojamą kompiuterių galią, skirtą mokyti DI modelius. Autoriai pabrėžia aiškų ir skubų poreikį JAV vyriausybei imtis veiksmų, siekiant spręsti šiuos pavojus.

Svarbu paminėti, kad nors ataskaita buvo parengta Valstybės Departamentui, jame išsakyti požiūriai neapima būtinai tokių, kaip institucija ar plačiau JAV vyriausybė.

Vėlai svarstomoje ataskaitoje, Gladstone AI vykdančioji direktorė Jeremie Harris pasidalino informacija, kad jų komanda turėjo beprecedentį prieigą prie oficialių viešojo ir privačiojo sektorių atstovų, kas prisidėjo prie stabančių išvadų. Ataskaita minėjo pokalbius su iškiliausių DI įmonių, tokių kaip OpenAI, Google DeepMind, Facebook Meta ir Anthropic, techninių ir vadovybės komandomis.

Išvadas rodydami ataskaitos šviesoje, galėtume pagyvindinti paspaudine sanacionalinės saugos pavojus, siejamus su besivystančia DI technologija. Skubumas dėl intervencijos ir saugos priemonių įgyvendinimo negali būti pervertintas. Toliau vystantis DI, svarbu imtis proaktyvių priemonių, siekiant užtikrinti jos atsakingą plėtrą ir diegimą. Statybos yra aukštos, ir laikas veikti dabar.

DUK

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact