Globālā tehnoloģiju titāni vienojas par ārkārtas AI apturēšanas stratēģiju.

Vadošās tehnoloģiju firmas un valdības apvieno spēkus, lai izveidotu AI drošības pasākumus. Tehnoloģiju rūpniecības giganti, ieskaitot Microsoft, OpenAI, Anthropic un vēl trīspadsmit uzņēmumu, ir panākuši vienošanos par jaunievedīgu politikas pamatstruktūru. Ja attīstot jaunus AI modeļus, radītos nemitības situācija, viņi ir vienojušies apturēt progresu, lai novērstu potenciālus katastrofālus scenārijus, kas līdzinātos reālai ‘Terminatora’ situācijai.

Kopīgas pūles samazināt AI riskus. Šis līgums tika sasniegts Seulā, kur organizācijas un valdības pārstāvji sapulcējās, lai noskaidrotu savu virzienu attiecībā uz AI attīstību. Vienošanās centrējas ap “izslēgšanas pogu” – apņemšanos pārtraukt savu visjaunāko AI modeļu attīstību, ja tie pārsniedz iepriekš noteiktos riska sliekšņus.

Trūkst konkrēta darbību un skaidrības. Neskatoties uz vienošanos, ir pamanāma konkrētu darbību neesamība vai noteiktu definīciju par “bīstamu” slieksni, kas aktivizētu izslēgšanas pogu. Tas rada šaubas par politikas izpildītspēju un efektivitāti.

No Yahoo News apkopotos ziņojumus, ekstrēmas situācijas radītu organizācijām nerelease jaunus AI modeļus, ja kontroles pasākumi ir nepietiekami. Lielie spēlētāji kā Amazon, Google un Samsung ir arī apņēmušies atbalstīt šo iniciatīvu, norādot plašu industrijas vienošanos.

Diskusijas ar mākslīgā intelekta ekspertiem kā tās, kas ziņo Unboxholics, uzsvēra būtiskos riskus, kas izraisīja šo vienoto lēmumu. Šis solis atspoguļo slavenā akadēmisko ģeogrāfu Geoffrey Hinton prognozes par AI potenciālu aizstāt cilvēkus dažādos darba nozarēs, norādot uz būtisku darbaspēka dinamikas maiņu.

Svarīgas bažas un izaicinājumi ap AI nekavējošas apturēšanas stratēģijām:

1. Definēt “bīstamus” sliekšņus: Būtisks izaicinājums ir noteikt precīzus parametrus, kas nosaka, kad AI kļūst pārāk riskants, lai turpinātu attīstību. Bez skaidrām definīcijām jebkura vienošanās par apturēšanu varētu būt subjektīva un pakļauta interpretācijai.

2. Izpildāmība: Nodrošinot, ka visas puses ievēro apturēšanas vienošanos, rodas problēmas, īpaši ņemot vērā globālo regulējošo struktūru trūkumu, kas speciāli attiecas uz AI.

3. Tehnoloģiskās spējas: Izslēgšanas poga paša tehniskā iespējamība ir tehnisks jautājums, kam nepieciešami uzticami mehānismi, kas jāiekļauj AI sistēmās, kas ir sarežģīts uzdevums.

4. Konkurētspējas spiedieni: Uzņēmumi var būt ietīti apturēt vai palēnināt pētījumus, ja konkurenti to nedarīs, kas var novest pie iespējamas sacensības jomā attiecībā uz AI attīstību.

5. Datu privātums un drošība: Izslēgšana varētu radīt datu privātuma un drošības riskus, jo attīstīto AI sistēmu darbība var ietvert ievērojamas datu apstrādes likumsakarības.

Ieguvumi no AI apturēšanas vienošanās:
Palielināta drošība: Tas nodrošina drošības tīklu pret sarežģītu AI sistēmu nejaušiem sekām.
Publiskais uzticība: Šāds vienojums var palielināt sabiedrības uzticēšanos AI tehnoloģijām un to attīstītājiem.
Kopīgas atbildības: Tas veicina atbildības un sadarbības kultūru starp tehnoloģiju uzņēmumiem.

Trūkumi no AI apturēšanas vienošanās:
Inovāciju novēršana: Pārāk piesardzīgi vai neskaidri norādījumi var apgraizīt inovācijas dinamiku.
Konkurētspējas trūkumi: Entitātes, kas ievēro vienošanos, var atpalikt no tiem, kas to nedarīs, it īpaši reģionos ar mainīgiem noteikumiem vai izpildes līmeņiem.
Grūta ieviešana: Praktiskie aspekti, kas saistīti ar izslēgšanas pogas ieviešanu un pārvaldību, var būt izaicinājumi un prasīt resursus.

Lai arī ir izvirzīti ieguvumi un pamanāmi izaicinājumi, šis notikums liecina par paradigmmaiņu, kā tehnoloģiju rūpniecība skata uz savu atbildību veidot AI nākotni. Pārcilvēciskās AI neizbēgamība liek ņemt vērā drošības pasākumus, lai aizsargātos pret kaitīgām sekām. Ir būtiski turpināt pētījumus un dialogu ar ieinteresētajām personām, lai efektīvi pilnveidotu un piemērotu tādus rāmju darbu.

Tiem, kas interesē plašāks šīs vienošanās konteksts, autoritatīvos avotos un diskusijas par AI politiku un drošību var atrast galvenajās organizāciju tīmekļa vietnēs, piemēram, Association for the Advancement of Artificial Intelligence (AAAI) vietnē AAAI un Future of Life Institute vietnē Future of Life Institute. Lai būtu informēti par jaunākajiem AI attīstības, politikas un diskusijām, ir svarīgi iepazīties ar šiem resursiem.

The source of the article is from the blog karacasanime.com.ve

Privacy policy
Contact