Pasauliniai dirbtinio intelekto sistemos neturi patikimų apsaugų, įspėja ekspertai.

Dirbtinis intelektas (AI) reikalauja aiškesnių saugos protokolų, paragina tyrimas, vykdomas po išsamių tyrimų, kuriuos atliko 75 specialistų iš 30 šalių grupė. Šie ekspertai dalijasi susirūpinimu, kad AI sistemų kūrėjai ribotai supranta, kaip veikia jų pačių sistemos, todėl mokslinė žinioje šiuo klausimu išlieka iš esmės apsiribota.

Grupė kritikuoja AI bendroves dėl nepakankamų saugos inspektorių prieigos. Ši kritika tapo aktualia po pirmo tarptautinio mokslinio pranešimo apie AI saugos gerinimą komisijos, kurią Sureguliavo Jungtinė Karalystė, summą Bletchley parke lapkričio mėn. Jungtinės Tautos ir Europos Sąjunga palaikė šį siekį, kai komisija peržiūrėjo visą esamą mokslinę literatūrą apie AI, kad pateiktų skaidrią įvertinimą dėl AI saugos būklės.

Jų išvadas pateikė prieš svarbų AI saugos virsmą Pietų Korėjoje vyksiančiame susitikimo. Pranešime buvo padaryta ryški išvada, kad nėra žinomų metodų, kurie siūlo patikimus garantijas prieš galimas žalą dėl universalios paskirties AI.

AI pionierius Joshua Bengio, kuris vadovavo komisijai, išreiškė susirūpinimą dėl išvadų ir neaiškios technologijos supratimo. Dialoge su „Times“, jis metaforiškai apibūdino dabartinę padėtį kaip žvilgsnį pro rūkas į švytėjimo galimybes, siūlydamas, kad reikia didelių investicijų, kad peršoktumėte per neskaidrumą ir pasinaudotumėte AI perspektyviomis galimybėmis.

Pagrindiniai klausimai ir atsakymai:

Kodėl patikimi apsaugos priemonės AI sistemoms yra svarbios?
Patikimos apsaugos priemonės yra būtinos, kad užtikrintų, jog AI sistemos veiktų numatytais parametrais ir nesukeltų nenoro žalos. Jos ypač svarbios universalios paskirties AI, kuris gali būti pritaikytas įvairiose srityse, dažnai su didesniu potencialu padaryti įtaką.

Kokias iššūkius susiduria AI kūrėjai, kuriant patikimas apsaugos priemones?
AI kūrėjai susiduria su iššūkiais, tokiais kaip AI algoritmų sudėtingumas, suprasti iškilusį elgesį ir suderinti AI sistemas su žmogiškomis vertybėmis. Taip pat trūksta išsamių reglamentavimo struktūrų, kurios suteiktų gairių dėl AI saugos standartų.

Kokio pobūdžio žalą gali sukelti saugomos AI?
Saugomos AI gali sukelti žalą, tokia kaip privatumo pažeidimai, diskriminacija, manipuliavimas, saugumo grėsmės, ekonominės pertvarkos, ir ekstremaliuose atveju, fizinę žalą per autonomines sistemas, tokiomis kaip dronai ar savarankiškai vairuojami automobiliai.

Pagrindiniai iššūkiai ir kontroversijos:

Vienas pagrindinis iššūkis yra sudėtingas neaiškios ir nepavykstančios suderinti sudėtingų AI sistemų elgesys, kadangi jos gali vystytis būdais, kurie nėra visiškai suprantami jų kūrėjams. Tai gali vesti prie nepageidaujamų ir galimai žalingų pasekmių. Kitas iššūkis yra etinių gairių ir teisinių struktūrų sudarymas, kurie laikytų su greitai vystančia AI technologija. Taip pat yra kontroversija dėl AI bendrovių skaidrumo, kadangi daugelis jos neteikia pakankamos prieigos ar išsamių įžvalgų į savo AI sistemas, todėl išorinė inspekcija tampa sudėtinga.

Robusti AI apsaugos pranašumai ir trūkumai:

Privalumai:
– Sustiprinti pasitikėjimą AI sistemomis ir technologija.
– Užkirsti kelią AI piktnaudžiavimui ir atsitiktinioms pasekmėms.
– Palengvinti atsakingą AI plėtrą ir įdiegimą.
– Skatinti tarptautinę bendradarbiavimą ir standartizaciją AI saugos srityje.

Trūkumai:
– Griežtesnės apsaugos priemonės gali apriboti inovacijas ir sulėtinti naujų AI programų plėtrą.
– Pernelyg griežtų teisinių nuostatų įgyvendinimas gali priversti reguliuojamas pramonės šakas ar šalis patirti konkurencinį pranašumą.
– Apsaugos priemonių kūrimas ir įgyvendinimas gali būti brangus ir laiką atimantis.

Su AI politika susijęs aktualūs institucijos ir organai apima Jungtines Tautas ir Europos Sąjungą, kurie remia iniciatyvas tobulinti AI saugos standartus ir praktikas. Tuo tarpu pramonės lyderiai ir suinteresuotosios šalys laukia ateinančių naujovių iš būsimo AI saugumo virsmo, siekiant gauti daugiau gairių dėl veiksmingų apsaugos priemonių įgyvendinimo.

Privacy policy
Contact