Bažas par drošības protokoliem OpenAI uztraucas, un tas ir uzsvērts jaunā ziņojumā.

Nesen ziņojumā tika atklāts, ka OpenAI ir paātrinājis jaunu AI modeļu attīstību, ignorējot drošības protokolus un drošības pasākumus. Neskaidru darbinieku iesniegtais atvērtā vēstule izteica bažas par to, ka neesot pietiekami daudz pārraudzības AI sistēmu veidošanā. Kā atbildi OpenAI ir izveidojis jaunu drošības un aizsardzības padomi, kas ietver valdes locekļus un izraudzītus vadītājus, lai novērtētu un uzlabotu drošības protokolus.

Neskatoties uz apgalvojumiem par drošības protokolu nepievēršanu, trīs OpenAI darbinieki, anonīmi runājot ar The Washington Post, dalījās ar to, ka komanda jutās spiesta paātrināt jauna testēšanas protokola ieviešanu, kas veidots “lai novērstu katastrofālas kaitējuma nodarīšanu” un lai ievērotu paredzēto GPT-4 Omni maija izlaišanas grafiku, kā noteikuši OpenAI vadītāji.

Drošības protokoliem ir jānodrošina, lai AI modeļi nesniedz kaitīgu informāciju vai nenodrošina ļaunu rīcību, piemēram, ķīmisko, bioloģisko, radioaktīvo un kernu ieroču (CBRN) ražošanu vai palīdzību produktu uzbrukumos.

Turklāt ziņojums uzsvēra līdzīgu notikumu, kas notika pirms GPT-4o izlaišanas, kas tiek aprakstīts kā visattīstītākais OpenAI AI modelis. Plāni tika izstrādāti izlaišanai, nepārbaudot tās drošību, ar viena OpenAI darbinieka citāciju ziņojumā, ka “mēs fundamentāli izgājām šajā procesā.”

Šis nav pirmais gadījums, kad OpenAI darbinieki norāda uz skaidru drošības un aizsardzības protokolu ignorēšanu uzņēmumā. Pagājušajā mēnesī bijušie un pašreizējie OpenAI un Google DeepMind darbinieki parakstīja atvērto vēstuli, paudot bažas par pietiekama pārraudzības trūkumu, izstrādājot jaunus AI modeļus, kas varētu radīt būtisku risku.

Vēstulē tika pieprasīts valdības iejaukšanās, regulējoši mehānismi un stingra aizsardzība paziņotājiem. Divi no trim OpenAI dibinātājiem, Džeferi Hintons un Josua Bengio, atbalstīja atvērto vēstuli.

Maijā OpenAI paziņoja par jaunās drošības un aizsardzības komitejas izveidi, kuras uzdevums ir novērtēt un uzlabot uzņēmuma AI darbības, nodrošinot kritiskas drošības un aizsardzības lēmumus OpenAI projektos un darbībās. Uzņēmums nesen publicēja jaunus vadlīnijus par atbildīgu un etisko AI modelu veidošanu, kas saukti par Modeļa Spec.

Nesenais ziņojums atklāja papildu informāciju par bažām par drošības protokoliem OpenAI, nodrošinot ieskatu par galvenajiem jautājumiem un izaicinājumiem saistībā ar šo jautājumu.

Galvenie Jautājumi:
1. Kādus konkrētus drošības protokolus OpenAI ir ignorējis AI modeļu attīstībā?
2. Kā spiediens paātrināt jauna testēšanas protokola ieviešanu ietekmēja drošības pasākumus?
3. Kādas potenciālas riskas saistītas ar AI sistēmām, kurām nav pietiekamu drošības un aizsardzības protokolu?
4. Kā darbinieki un nozares eksperti ir ierosinājuši risināt drošības bažas OpenAI?
5. Kādas ir OpenAI pieejas priekšrocības un trūkumi attiecībā uz prioritāti AI modeļu attīstībā pār drošības protokoliem?

Galvenās Izaicinājumi un Kontroverses:
– OpenAI darbinieki jutās spiesti prioritizēt jaunu AI modeļu izlaišanu pār drošības protokoliem, radot bažas par iespējamu katastrofālu kaitējumu.
– Drošības protokolu nepievēršana var radīt situāciju, kurā AI sistēmas sniedz kaitīgu informāciju vai piedalās bīstamos darbos, piemēram, palīdzot izveidot ieročus vai organizēt IS uzbrukumus.
– Pārraudzības trūkums AI sistēmu veidošanā var radīt būtiskus riskus un ētiskus dilemmas, prasot nekavējošu uzmanību un iejaukšanos.
– Prasība pēc valdības regulējuma, paziņotāju aizsardzības un uzlabota drošības pasākumu atspoguļo augošo bažu par kontroles trūkumu attīstot AI tehnoloģijas.

Priekšrocības:
– Paātrinātais AI modeļu attīstība var novest pie vadošiem tehnoloģiju un inovāciju progresiem.
– OpenAI apņemšanās izveidot drošības un aizsardzības komiteju norāda uz proaktīvu pieeju drošības bažu risināšanai un protokolu uzlabošanai.
– Jaunās vadlīnijas atbildīgu un etisko AI modelu veidošanai, Modela Spec, liecina par gatavību prioritizēt drošību un etikas apsvērumus.

Trūkumi:
– Drošības protokolu ignorēšana AI attīstībā radīs būtiskus riskus sabiedrībai, iespējami novedot pie negaidītiem seku un kaitīgiem rezultātiem.
– Spiediens izpildīt ambiciozos izlaišanas grafikus var apdraudēt drošības pasākumus un apgrūtināt pamatīgus riska novērtējumus.
– Nepietiekama pārraudzība un atbildība AI sistēmu veidošanā var samazināt sabiedrības uzticību un radīt etiskas bažas mākslīgā intelekta jomā.

Plašākai informācijai par drošības protokolu nozīmi AI attīstībā un notiekošajām diskusijām par OpenAI prakses apmeklējiet OpenAI oficiālo mājaslapu vietnē OpenAI.

The source of the article is from the blog enp.gr

Privacy policy
Contact