Vēlme risināt valsts drošības riskus, kas saistīti ar inteliģentās mākslīgās inteliģences attīstību

Inteliģentās mākslīgās inteliģences (AI) straujais attīstības tempa pieaugums rada steidzamus valsts drošības jautājumus, kuriem nevar palikt vienaldzīgi. Valdības pasūtītais ziņojums ir uzsvēris, ka ASV valdībai nekavējoties un apņēmīgi ir jārīkojas, lai mazinātu nozīmīgos riskus, ko rada AI un kuri potenciāli var kļūt par cilvēces “izmiršanas līmeņa draudu.”

Ziņojumā tiek uzsvērtas briesmas, kas saistītas ar jaunākās tehnoloģijas attīstību un plaša mēroga mākslīgās inteliģences (AGI) pieaugumu, salīdzinot to potenciālo globālo drošības ietekmi ar kodolieročiem. Lai gan AGI paliek hipotētiska, ziņojums liecina, ka tā ierašanās var būt tuvumā, ņemot vērā tempu, ar kādu AI laboratorijas strādā, lai attīstītu šādas tehnoloģijas.

Nozares eksperti ir snieguši ieskatu par iekšējām bažām saistībā ar drošības praksi AI nozarē, jo īpaši izcilās uzņēmumos kā OpenAI, Google DeepMind, Anthropic un Meta. Viņi ir izraisījuši trauksmi par “ietekmes uzbrukošanas risku” un “kontroles zudumu,” uzsverot divkāršos draudus, ko rada AI spēju straujā attīstība. Ziņojums brīdina, ka ekonomiskie stimuli, kas piedziņo bīstamu sacensību starp AI izstrādātājiem, var uzsvērt progresu pār drošības apsvērumiem.

Kamēr AI tehnoloģijas turpina attīstīties, pastāv pieaugoša pieprasījums pēc stingrām regulējošām pasākumiem. Ziņojumā tiek ierosinātas nepieredzētas darbības, tai skaitā padarot par nelikumīgu apmācīt AI modeļus pāri konkrētiem skaitļošanas jaudas līmeņiem un izveidojot jaunu federālo aģentūru, kas nodarbojas ar AI jomu.

Lai risinātu valsts drošības riskus, kas saistīti ar AI ieroču veidošanu un kontroles zudumu, ziņojums izklāsta “Gladstone Darbību plānu.” Šis plāns aicina ieviest starpvērtības garantijas, pastiprināt valdības spējas un kapacitāti attīstītībā, palielināt investīcijas AI drošības pētījumos, izveidot formālas garantijas arī regulatīvas aģentūras Frontier AI Systems Administration (FAISA) un iekļauti AI garantijas starptautiskajos likumos.

Tomēr šo ieteikumu īstenošana var saskarties ar nozīmīgu politisku un nozares pretestību. Pašreizējie ASV valdības politiskie lēmumi un AI attīstības kopienas sadarbības un globālās dabas būs izaicinoši šķēršļi.

Neskatoties uz to, ziņojums atspoguļo sabiedrībā pieaugošās bažas par potenciālu katastrofiskiem notikumiem, ko var izraisīt AI. Tas uzsvēra nepieciešamību pēc palielinātas valdības regulēšanas, lai nodrošinātu AI attīstības drošību un stabilitāti. Ar AI rīku straujo attīstību un to atkarību no ievērojamas skaitliskās skaitliskās jaudas ir kļuvušas būtiskas, lai risinātu šādas plašas sabiedrības bažas. Rīcības steidzamību nevar nepārvērtēt, ja mēs vēlamies izvairīties no sarežģītības un potenciālajiem riskiem, kas saistīti ar AI attīstību.

Bieži uzdotie jautājumi

1. Kādi ir valsts drošības riski, ko rada inteliģentās mākslīgā inteliģence (AI) straujais attīstības tempa pieaugums?
– AI straujā attīstība rada bažas par tā spēju kļūt par “izmiršanas līmeņa draudu cilvēces,” tāpat kā kodolieročiem.

2. Kas ir inteliģentā vispārējā inteliģence (AGI)?
– Inteliģentā vispārējā inteliģence ir hipotētiska AI forma, kas var veikt jebkuru intelektuālo uzdevumu, ko var paveikt cilvēks.

3. Kādi riski ir saistīti ar jaunāko AI pieaugumu?
– Ziņojums uzsvēra divus galvenos riskus: “iedibināšanas risku,” kas attiecas uz AI izmantošanu kā ieroci, un “kontroles zudumu” risku, kas attiecas uz AI sistēmu kļūšanu nekontrolējamas vai darbību neparedzētos veidos.

4. Kādas bažas nozares eksperti ir pauduši par AI nozari?
– Nozares eksperti ir pauduši bažas par ieroču uzbrukošanas risku un kontroles zuduma risku AI nozarē. Viņi brīdina par bīstamu sacensību starp AI izstrādātājiem un potenciālo progresu pār drošības apsvērumiem.

5. Kādas regulējošas darbības tiek ierosinātas ziņojumā?
– Ziņojums ierosina padarīt par nelikumīgu apmācīt AI modeļus pār konkrētiem skaitļošanas jaudas līmeņiem un izveidot jaunu federālo aģentūru, kas uzraudzītu AI jomu.

6. Kas ir “Gladstone Darbības plāns”?
– “Gladstone Darbības plāns” ir plāns, kas izklāstīts ziņojumā, lai risinātu valsts drošības riskus saistībā ar AI ieroču veidošanu un kontroles zudumu. Tas aicina ieviest starpvērtības garantijas, palielināt investīcijas AI drošības pētījumos un izveidot regulatīvu aģentūru AI jomā.

7. Kādus šķēršļus var radīt ieteikumu ieviešana?
– Politiskā un nozares pretestība, kā arī pašreizējie ASV valdības politiskie lēmumi un AI attīstības kopienas sadarbības un globālais raksturs var būt šķēršļi ieteikumu ieviešanā.

8. Kas tiek uzsvērts ziņojumā attiecībā uz sabiedrības bažām?
– Ziņojums atspoguļo sabiedrībā pieaugošo bažu par potenciāli katastrofiskiem notikumiem, ko var izraisīt AI. Tas uzsver nepieciešamību pēc palielinātas valdības regulēšanas, lai nodrošinātu drošību un stabilitāti AI attīstībā.

Definīcijas

Inteliģentā mākslīgā inteliģence (AI) – Dators zinātnes joma, kas koncentrējas uz inteliģentu mašīnu radīšanu un attīstību, kas spēj veikt uzdevumus, kas parasti prasa cilvēcisku inteliģenci.

Inteliģentā vispārējā inteliģence (AGI) – Hipotētiska AI forma, kas var veikt jebkuru intelektuālo uzdevumu, ko var paveikt cilvēks.

Ieroču uzbrukošana – Darbība, kas pārvērš kaut ko par ieroci vai izmanto to kā ieroci. AI kontekstā tas attiecas uz AI tehnoloģijas izmantošanu kaitīgiem nolūkiem.

Kontroles zudums – Attiecas uz potenciālu AI sistēmu rīcību veidās, kuras nebija domātas vai paredzētas, iespējams, izraisot negaidītas nevēlamas sekas.

Ieteiktie saistītie saites:

Nacionālā Akadēmija – Mākslīgā inteliģence
Balto nams – Mākslīgā inteliģence
Nacionālais standartu un tehnoloģiju institūts – Mākslīgā inteliģence

The source of the article is from the blog papodemusica.com

Privacy policy
Contact