Nedavna poročila so razkrila, da je OpenAI pospešil razvoj novih modelov umetne inteligence, pri čemer je zanemaril varnostne protokole in varnostne ukrepe. Zaskrbljenost so izrazili neimenovani zaposleni, ki so podpisali odprto pismo, kjer so izrazili nelagodje zaradi pomanjkanja nadzora pri konstrukciji AI sistemov. OpenAI je na odzval na ustanovitev novega odbora za varnost in varnostne ukrepe, ki ga sestavljajo člani uprave in izbrani managerji, s ciljem pregleda in izboljšanja varnostnih protokolov.
Kljub obtožbam zanemarjanja varnostnih protokolov je trije zaposleni v podjetju OpenAI, ki so želeli ostati anonimni, v pogovoru za The Washington Post delili, da je bila ekipa pritiskana, da pospeši izvajanje novega testnega protokola, zasnovanega “za preprečevanje potencialno katastrofalne škode” z namenom izpolnitve načrtovanega izida GPT-4 Omni maja, kot je bilo določeno s strani vodstva OpenAI.
Varnostni protokoli imajo za cilj zagotoviti, da modeli AI ne zagotavljajo škodljivih informacij ali pomagajo pri izvajanju nevarnih dejanj, kot je izdelava kemičnih, bioloških, radioloških in jedrskih orožij (CBRN) ali pomagajo pri napadih na omrežja.
Poročilo je izpostavilo podoben incident, ki se je zgodil pred izidom GPT-4o, opisanega kot najnaprednejši model AI podjetja OpenAI. Načrti za izid so bili narejeni brez zagotovila o njegovi varnosti, neki zaposleni v OpenAI je bil citiran v poročilu z izjavo: “temeljito smo spodleteli v tem procesu.”
To ni prvi primer, ko so zaposleni v podjetju OpenAI opozorili na jasno zanemarjanje varnostnih protokolov in varnostnih ukrepov v podjetju. Prejšnji mesec so nekdanji in sedanji zaposleni v OpenAI ter Google DeepMind podpisali odprto pismo, kjer so izrazili zaskrbljenost zaradi pomanjkanja nadzora pri razvoju novih sistemov AI, ki bi lahko predstavljali pomembna tveganja.
V pismu so pozvali k intervenciji vlade, regulatornimi mehanizmi in močno zaščito za tiste, ki obveščajo o kršitvah s strani delodajalcev. Dva od treh soustanoviteljev OpenAI, Jeffrey Hinton in Yoshua Bengio, sta podprla odprto pismo.
V maju je OpenAI napovedal ustanovitev novega odbora za varnost in varnostne ukrepe, zadolženega za ocenjevanje in izboljšanje poslovanja AI podjetja ter zagotavljanje kritičnih odločitev o varnosti in zaščiti za projekte in operacije OpenAI. Podjetje je nedavno delilo nove smernice za gradnjo odgovornih in etičnih modelov AI, znane kot Model Spec.
Nedavno poročilo je razkrilo dodatne podrobnosti glede zaskrbljenosti varnostnih protokolov v OpenAI, osvetljujoče ključna vprašanja in izzive, povezane s to temo.
Ključna vprašanja:
1. Kateri specifični varnostni protokoli so bili zanemarjeni pri razvoju modelov umetne inteligence v podjetju OpenAI?
2. Kako je pritisk za pospešitev izvajanja novih testnih protokolov vplival na varnostne ukrepe?
3. Kakšna potencialna tveganja so povezana z AI sistemi, ki nimajo zadostnih varnostnih protokolov?
4. Kako so zaposleni in strokovnjaki predlagali reševanje varnostnih skrbi v podjetju OpenAI?
5. Kaj so prednosti in slabosti pristopa podjetja OpenAI k prioritetizaciji razvoja modelov AI pred varnostnimi protokoli?
Ključni izzivi in kontroverze:
– Zaposleni v podjetju OpenAI so se počutili pritisnjene, da raje pospešijo izid novih modelov AI kot zagotovijo robustne varnostne protokole, kar vzbuja skrbi glede potencialne katastrofalne škode.
– Zanemarjanje varnostnih protokolov lahko privede do AI sistemov, ki zagotavljajo škodljive informacije ali so vpleteni v nevarna dejanja, kot je olajšanje pri izdelavi orožij ali kibernetskih napadih.
– Pomanjkanje nadzora pri konstrukciji AI sistemov bi lahko prineslo pomembna tveganja in etične dileme, ki zahtevajo takojšnjo pozornost in posredovanje.
– Poziv k regulaciji s strani vlade, zaščita za tiste, ki obveščajo o nepravilnostih in okrepljeni varnostni ukrepi odražajo naraščajočo zaskrbljenost zaradi nekontroliranega razvoja tehnologij AI.
Prednosti:
– Pospešen razvoj modelov AI lahko privede do inovativnih napredkov v tehnologiji.
– Zaveza podjetja OpenAI k ustanovitvi odbora za varnost in varnostne ukrepe kaže na proaktivni pristop za obravnavo varnostnih skrbi in izboljšanje protokolov.
– Najnovejše smernice za odgovorno in etično gradnjo modelov AI, Model Spec, kažejo na voljo za prioritizacijo varnosti in etičnih premislekov.
Slabosti:
– Zanemarjanje varnostnih protokolov pri razvoju AI predstavlja velika tveganja za družbo, lahko vodi v nepredvidene posledice in škodljive izide.
– Pritisk za izpolnitev ambicioznih urnikov izida bi lahko ogrozil varnostne ukrepe in oviral temeljite ocene tveganj.
– Pomanjkanje ustrezne nadzora in odgovornosti pri konstrukciji AI sistemov bi lahko podkopalo javno zaupanje in dvignilo etična vprašanja na področju umetne inteligence.
Za več informacij o pomembnosti varnostnih protokolov pri razvoju AI in trenutnih razpravah glede praks podjetja OpenAI obiščite uradno spletno stran OpenAI na OpenAI.