Asjatundjad kutsume üles viivitamatule tegevusele tehisintellekti arendamise reguleerimiseks

Juhtivad eksperdid tehisintellekti (AI) valdkonnas on teinud tungiva üleskutse globaalsetele juhtidele käsitleda viivitamatult puudust, mis on tekkinud viimasest AI turvalisuse tippkohtumisest saadik. Nad pooldavad rangeid poliitikaid AI arenduse reguleerimiseks ja selle väärkasutuse ennetamiseks, rõhutades seotud olulisi riske, kui AI võimsus ületab inimeste võimekuse.

Hiljuti avaldatud Science’i ajakirja artiklis hoiatavad eksperdid ebapiisavate meetmete eest, mis on võetud AIga seotud riskidega võitlemiseks, ja kutsuvad üles rangele juhtimisele võimalike katastroofide ärahoidmiseks. Nad rõhutavad vajadust, et maailma liidrid võtaksid AI riskide vastu võitlemiseks kindlaid meetmeid.

Need eksperdid pakuvad välja poliitilised meetmed, et vastu seista AI-tehnoloogiatega seotud ohtudele, rõhutades kiirete, suunavate muutuste vajadust, et lahendada keerukust, mida põhjustavad arenenud AI-süsteemid.

Kuna AI areneb kiiresti valdkondades nagu häkkimine, sotsiaalne manipuleerimine ja strateegiline planeerimine, on mureks AI süsteemidel inimeste usalduse võitmine, ressurssidele juurdepääsu saamine ja otsustajate mõjutamine. AI-põhine areng võib viia katastroofiliste tagajärgedeni, millel on ettenägematud mõjud inimkonnale ja keskkonnale.

Tegevuskutse hõlmab ekspertide järelevalveasutuste loomist suurema rahastamise võimaldavate vahenditega, range riskihindamise jõustamist kohustuslike tagajärgedega, turvalisuse prioriteediks seadmist AI arenduses, riskide vähendamise standardite rakendamist ja valitsuse reguleerimise nõudmist, et tagada vastutus ja teabe turvalisus.

On ilmne, et on aeg pühenduda AI süsteemide tõhusale reguleerimisele, rõhutades valitsuse juhtimise tähtsust arenenud AI-tehnoloogiate arendamise ja rakendamise järelevalves. Järelevalveta jäänud AI arenemise võimalikud tagajärjed nõuavad kiireloomulisi ja ulatuslikke meetmeid ühiskonna kaitsmiseks ning katastroofsete tagajärgede ärahoidmiseks.

The source of the article is from the blog zaman.co.at

Privacy policy
Contact