AI eksperti aicina lielāku pārredzamību un aizsardzību bļabējiem

Vienotība, kas sastāv no bijušiem un pašreizējiem OpenAI un Google DeepMind darbiniekiem, ir paudusi bažas par trūkumiem attiecībā uz skaidrību saistībā ar riskiem, kas saistīti ar mākslīgo intelektu (AI), ieskaitot potenciālas draudus cilvēku pastāvēšanai. Atklātais vēstījums, ko šonedēļ publicēja šo organizāciju 13 locekļi, akcentē, ka AI uzņēmumi glabā ievērojamu nepublicētu informāciju par savu attīstību spējām un ierobežojumiem.

Autori uzsvēra, ka AI rada “nopietnus apdraudējumus,” piemēram, nevienlīdzības pastiprināšanu, dezinformācijas izplatīšanos un risku, ka nekontrolējams AI var izraisīt cilvēku iznīcināšanu. Grupa arī kritizē pašreizējo uzraudzības mehānismu kā nepietiekamu un aicina uz spēcīgākām aizsardzības līdzekļiem tiem, kas ir gatavi paziņot par trauksmes signāliem, zināmiem kā zvanātāji, AI nozarē.

Kaut arī viņi tic, ka AI nepārspējamie potenciālie ieguvumi sabiedrībai un minētie draudi varētu tikt mazināti, iesaistot zinātniekus, regulatorus un sabiedrību, parakstītāji pauda bažas, ka AI uzņēmumi varētu būt iemesliem izvairīties no efektīvas uzraudzības. Viņi norādīja, ka, lai gan daudzi AI uzņēmumi saprot briesmas un nepieciešamās piesardzības pasākumus, tiem nav pienākumu šo informāciju dalīt ar valdībām un sabiedrību.

Konfidencialitātes nolīgumi daudziem liedz paust savas raizes, un zvanītāju aizsardzība ir nepietiekama, vēstule norāda, uzsvērot, ka šie bieži vien aptver tikai nelikumīgās darbības, kamēr daudzos gadījumos pastāv briesmas nelikumīgās darbībās, kamēr daudzos gadījumos pastāv briesmas nelikumīgās darbībās, to darbību, kuru vēl nav regulēts.

Autori aicina vadīgo uzņēmumu nepieļaut atbildi pret kritiku, kas saistīta ar AI draudiem, un izveidot sistēmas anonīmām atsauksmēm, lai darbinieki varētu brīvi paust savus viedokļus. OpenAI pārstāvis ir teicis, ka viņi lepojas ar savu augsto seifu, drošo AI sistēmu publicēšanas vēsturi un uzticēšanos uzņēmuma zinātnisko pieeju draudu risināšanā. Google ir atteicies komentēt šo jautājumu. Iepriekš bija nākošas ziņas, ka bijušie OpenAI darbinieki tika aizliegti kritizēt uzņēmumu, iespējams, zaudējot akcijas, ja viņi nepiemirst neizteiktu konfidencialitātes nolīgumu; lai arī izpilddirektors Sam Altman vēlāk paziņoja, ka likvidācijas dokumentus tiks pārskatīti.

Visbūtiskākie jautājumi un atbildes:

1. Kāpēc AI eksperti aicina uz lielāku skaidrību un zvanītāju aizsardzību?
AI eksperti aicina uz šādām pasākumiem, jo viņi ir satraukti par nepublicētu informāciju par AI spējām un ierobežojumiem, kas var radīt draudus sabiedrībai. Viņi vēlas nodrošināt, ka jebkuri potenciālie riski, piemēram, nevienlīdzības pastiprināšana, dezinformācijas izplatīšana un eksistenciāli draudi cilvēcei, tiek atklāti apspriesti un risināti.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact