Potenciāli haosa radīšana pasaulē, kurā darbojas mākslīgā intelekta sistēmas

Ātrā mākslīgās intelektās (AI) attīstība nes līdzi daudz priekšrocību un risku. OpenAI izpilddirektors Sems Altman uzsver potenciālu “ļoti nemanāmiem sabiedrības nesaskanām” ar postošām sekām. Altman uzskata, ka, lai gan mirstošie AI roboti pilsētās varētu šķist acīmredzama bīstamība, vēl lielāka apdraudējuma rada vairāk paslēptas sabiedrības nesaskanām.

Tā vietā, lai koncentrētos uz katastrofas scenārijiem, Altman galvenās bažas ir par nejaušiem nelaimes gadījumiem, kas rodas no AI izmantošanas sabiedrībā. Lai gan AI spēj uzlabot dzīves kvalitāti un veicināt sabiedrību, steidzami jārisina šīs tehnoloģijas negatīvās puses. Altman atzīst iespēju zinātnes nākotnē, kur cilvēki var izbaudīt paaugstinātu dzīves līmeni, pateicoties plašam piekļuvei augstas kvalitātes intelektam.

Lai novērstu katastrofālas sekas, Altman aicina izveidot globālu iestādi, kas būtu atbildīga par AI uzraudzību, līdzīgu Starptautiskajai atomenerģijas aģentūrai. Šī uzraudzības organizācija noteiktu nepieciešamos audita un drošības pasākumus, kas nepieciešami pirms superintelekta vai mākslīgās vispārējās inteliģences (AGI) izplatīšanas.

Ņemot vērā regulējošo aspektu, Altman atzīst pašlaik notiekošās diskusijas un debatēs par AI. Tomēr viņš uzsver vajadzību pāriet no vienkāršas aptverošas diskusijas uz rīcības plānu, kas guvusi starptautisku vienprātību un sadarbību.

Lai arī OpenAI ir nozīmīgs spēlētājs AI jomā, Altman uzsver, ka regulējumu noteikšanas atbildība nevajadzētu būt tikai uzņēmuma pleciem. Viņš aktīvi iesaistās apspriedēs ar likumdevējiem Kapitolija kalnā, lai risinātu ar AI saistītās riska situācijas un strādātu, lai tos samazinātu.

Lai gan OpenAI ir saņēmusi nozīmīgus ieguldījumus no Microsoft un ir partnerējusi ar Associated Press, lai apmācītu savas AI sistēmas, uzņēmumam ir bijusi likumīgā izmeklēšana par savu čatu robotu apmācības procesu. The New York Times iesniedza prasību tiesā, apsūdzot Microsoft un OpenAI kopējuma pārkāpumā par miljoniem saviem rakstu izmantošanu AI modeļu apmācībā.

Ātri attīstošās AI pasaules kontekstā ir būtiski panākt delikātu līdzsvaru starp progresu un piesardzību. Altmana aicinājums rūpīgai regulēšanai un pārdomātai sabiedrības nesaskanām iezīmē kopīgu pūļu nepieciešamību, lai gūtu pilna AI potenciāla labumu, vienlaikus minimizējot riskus, ko tas rada mūsu pasaulei.

BUJNODARBU sadaļa:

1. Kādas ir mākslīgā intelekta (AI) potenciālās riskas?
Āgrā AI attīstība nes līdzi gan priekšrocības, gan riskus. OpenAI izpilddirektors Sems Altman uzsver potenciālu “ļoti nemanāmiem sabiedrības nesaskanām”, kas varētu radīt postošas sekas. Viņš uzskata, ka nejauši nelaimes gadījumi, kas rodas no AI izmantošanas, rada lielāku apdraudējumu nekā acīmredzamākās briesmas, piemēram, letāli AI roboti.

2. Kāda ir Altman galvenās bažas par AI izmantošanu?
Altman galvenās bažas ir par negatīviem nejaušiem secinājumiem, kas rodas no AI izmantošanas sabiedrībā. Lai gan AI var uzlabot dzīves kvalitāti un veicināt sabiedrību, ir nepieciešams risināt šīs tehnoloģijas negatīvās puses. Altman aicina izveidot globālu organizāciju, kas atbildīga par AI uzraudzību un nepieciešamajiem audita un drošības pasākumiem.

3. Kā Altman ierosina novērst katastrofālas sekas?
Altman ierosina izveidot globālu organizāciju, kas līdzīga Starptautiskajai atomenerģijas aģentūrai uzraugātu AI. Šī organizācija noteiktu nepieciešamos drošības pasākumus pirms superintelekta vai mākslīgās vispārējās inteliģences (AGI) izplatīšanas.

4. Kā Altman uzsver regulējuma vajadzību?
Altman atzīst pašlaik notiekošās diskusijas un debatēs par AI regulējumu, bet aicina pāriet no apspriešanas uz rīcības plānu, kas iegūst starptautisku vienprātību un sadarbību. Viņš aktīvi iesaistās apspriedēs ar likumdevējiem, lai risinātu ar AI saistītos riskus.

5. Ar kādu likumīgas izmeklēšanas problēmu OpenAI saskārās?
OpenAI ir saskārusies ar likumīgu izmeklēšanu saistībā ar savu čatu robotu apmācības procesu. The New York Times iesniedza prasību tiesā, apsūdzot Microsoft un OpenAI kopējuma pārkāpumā par miljoniem saviem rakstu izmantošanu AI modeļu apmācībā.

Galvenie termini un žargons:
– Mākslīgā intelekta (AI): Cilvēka intelekta simulācija mašīnās, lai veiktu uzdevumus, kas parasti prasītu cilvēka intelektu.
– Sabiedrības nesaskanāmības: Nekasagribētas negatīvas sekas vai atšķirības AI izmantošanā sabiedrībā.
– Superintelekts: AI sistēmas, kas pārsniedz cilvēka intelektu gandrīz visās jomās.
– Mākslīgā vispārējā inteliģence (AGI): Augsti autonomas sistēmas, kas veicekonomiski izdevīgā darbā pārspēj cilvēkus.

Ieteiktie saistītie saites:
– OpenAI: OpenAI oficiālā mājaslapa, kas ir vadoša organizācija mākslīgā intelekta jomā.
– Starptautiskā atomenerģijas aģentūra: Starptautiskā atomenerģijas aģentūras oficiālā mājaslapa, kas veicina miermīlīgu atomenerģijas izmantošanu un strādā, lai nodrošinātu tās drošību.
– Microsoft: Microsoft oficiālā mājaslapa, kas ir amerikāņu multinacionālā tehnoloģiju uzņēmuma un ir veikusi ievērojamus ieguldījumus OpenAI.
– The New York Times: The New York Times oficiālā mājaslapa, slavena avīze, kas iesniedza prasību tiesā pret Microsoft un OpenAI par to AI modeļu apmācības procesu.

The source of the article is from the blog zaman.co.at

Privacy policy
Contact