Pasaulio technologijų titanai susitaria dėl skubios dirbtinio intelekto stabdymo strategijos

Įtakingiausi technologijų gigantai ir vyriausybės susivienijo, kad įvestų dirbtinio intelekto apsaugos priemones. Technologijų pramonės galybės, įskaitant „Microsoft“, „OpenAI“, „Anthropic“ ir dar trisdešimt įmonių, susitarė dėl pirmaujančio politikos pagrindo. Jei besivystant naujiems AI modeliams iškiltų nekontroliuojama situacija, jos sutiko sustabdyti pažangą, kad išvengtų galimų katastrofiškų scenarijų panašių į realaus gyvenimo „Terminatoriaus“ įvykius.

Bendri veiksmai siekiant sumažinti AI rizikas. Šį susitarimą pasiekiama Seule, kur organizacijos ir vyriausybės atstovai susitiko nustatyti savo kursą, susijusį su AI plėtros mastu. Sutartis susitelkia į „išjungimo mygtuką“ – įsipareigojimą sustabdyti pažangą savo pažangiausiuose AI modeliuose, jei jie peržengs iš anksto nustatytus rizikos slenksčius.

Trūksta konkrečių veiksmų ir aiškumo. Nepaisant susitarimo, pastebima nestabilumo veiksmų nauda arba nustatyta „pavojinga“ ribos apibrėžtis, kuri įgalintų išjungimo mygtuką. Tai kelia abejonių dėl politikos įgyvendinimo ir veiksmingumo.

Iš Yahoo News surinktų ataskaitų matyti, kad ekstremaliais atvejais organizacijos neleistų išleisti naujų AI modelių, jei kontrolės priemonės būtų nepakankamos. Svarbūs žaidėjai, tokių kaip „Amazon“, „Google“ ir „Samsung“, taip pat prisiekė palaikyti šią iniciatyvą, signalizuodami platesnį pramonės susitarimą.

Diskusijos su dirbtinio intelekto ekspertais, tokios, kaip pranešta „Unboxholics“, yra pabrėžiamos nemažos rizikos, skatinant šį vieningą sprendimą. Šis žingsnis atspindi žinomo akademinio Geoffrey Hintono prognozes, kuris įspėjo apie AI potencialą pakeisti žmones įvairiose darbo sektoriuose, signalizuodamas gilų darbo jėgos dinamikos poslinkį.

Svarbūs rūpesčiai ir iššūkiai, susiję su AI avarijos sustabdymo strategijomis:

1. „Pavojingų” slenksčių apibrėžimas: Svarbus iššūkis yra nustatyti tikslų parametrus, nustatančius, kada AI tampa per rizikingas, kad būtų galima tęsti jo plėtrą. Be aiškių apibrėžimų, bet koks susitarimas dėl sustabdymo gali būti subjektyvus ir gali priklausyti nuo interpretacijos.

2. Įgyvendinamumas: Užtikrinti, kad visos šalys laikytųsi susitarimo dėl sustabdymo, yra problemiška, ypač atsižvelgiant į stoką globalių reguliavimo struktūrų, skirtų būtent AI.

3. Technologiniai galimybės: Sustabdymo mygtuko pati techninė galimybė yra techninė problema, reikalinga patikimoms mechanizmams, įrengtiems į AI sistemas, kuri yra sudėtinga užduotis.

4. Konkurenciniai spaudimai: Kompanijos gali būti atsargesnės stabdamos arba lėtindamos tyrimus, jei konkurentai to nedaromi, o tai gali paskatinti ginklavimosi lenktynes AI plėtros srityje.

5. Duomenų privatumas ir saugumas: Pažangios AI sistemos gali tvarkyti didelius duomenų kiekius, o jų staigus išjungimas gali kelti duomenų privatumo ir saugumo riziką.

AI stabdymo susitarimo privalumai:
– Didėjantis saugumas: Jis suteikia apsaugos tinklą nuo sudėtingų AI sistemų neigiamų padarinių.
– Viešas pasitikėjimas: Toks susitarimas gali padidinti visuomenės pasitikėjimą AI technologijomis ir jas plėtojančiomis įstaigomis.
– Pasidalijama atsakomybė: Jis skatina atsakomybės ir bendradarbiavimo kultūrą tarp technologijų įmonių.

AI stabdymo susitarimo trūkumai:
– Inovacijų slopinimas: Per daug atsargios arba dviprasmiškos gairės gali užgesinti inovacijas.
– Konkurenciniai nepatogumai: Vietos, kuriose taikomi skirtingi reglamentai ar vykdymo lygmenys, subjektai, kurie laikosi susitarimo, gali atsilikti nuo tokių, kurie to nedaro.
– Sudėtinga įgyvendinimas: Įgyvendinimo ir tvarkymo praktiniai aspektai gali būti sunkūs ir reikalauti daug resursų.

Nors yra siūlomų privalumų ir pastebimų iššūkių, šis vystymas rodo pasikeitimą, kaip technologijų pramonė vertina savo atsakomybę formuojant AI ateitį. Būtinybė turėti pažangias AI verčia apsvarstyti apsaugos priemones, skirtas apsaugoti nuo žalingų rezultatų. Labai svarbu tęsti tyrimus ir dialogą tarp suinteresuotųjų šalių, kad šie pagrindai būtų efektyviai tobulinami ir įgyvendinami.

Tiems, kurie domisi šio susitarimo platesniu kontekstu, autoritetingų šaltinių ir diskusijų apie AI politiką ir saugą galima rasti pagrindinėse organizacijų svetainėse, tokių kaip Dirbtinio Intelekto Pažangos Asociacija (AAAI) (AAAI) adresu AAAI ir ateities gyvenimo institutas adresu Būsimo gyvenimo institutas. Būtina tikrinti šiuos resursus, kad būtumėte informuoti apie besiplečiančius AI plėtros, politikos ir diskusijas.

The source of the article is from the blog foodnext.nl

Privacy policy
Contact