Nedavni izvještaj otkrio je da OpenAI ubrzava razvoj novih AI modela zanemarujući sigurnosne protokole i sigurnosne mjere. Zabrinutost su izrazili neimenovani zaposlenici koji su potpisali otvoreno pismo izražavajući nelagodu zbog nedostatka nadzora u izgradnji AI sustava. OpenAI je kao odgovor osnovao novi odbor za sigurnost i sigurnost koji čine članovi odbora i odabrani menadžeri kako bi procijenili i poboljšali sigurnosne protokole.
Unatoč optužbama za zanemarivanje sigurnosnih protokola, troje zaposlenika tvrdi, anonimno govoreći za The Washington Post, da su osjećali pritisak da ubrzaju implementaciju novog testnog protokola dizajniranog “kako bi spriječili da AI sustavi uzrokuju katastrofalnu štetu” kako bi ispunili planirani lansiranje GPT-4 Omni u svibnju, kako je postavljeno od strane vodstva OpenAI-a.
Sigurnosni protokoli imaju za cilj osigurati da AI modeli ne pružaju štetne informacije niti pomažu u izvođenju opasnih radnji kao što su izrada kemijskog, biološkog, radiološkog i nuklearnog oružja (CBRN) ili sudjelovanje u cyber napadima.
Izvještaj je također istaknuo sličan incident koji se dogodio prije lansiranja GPT-4o, opisan kao najnapredniji AI model tvrtke OpenAI. Planovi za lansiranje napravljeni su bez osiguravanja sigurnosti, a jedan zaposlenik tvrtke OpenAI citiran u izvještaju izjavio je: “mi smo temeljno pogriješili u ovom procesu.”
Ovo nije prvi put da su zaposlenici OpenAI-a skrenuli pozornost na jasan nepoštivanje sigurnosnih i sigurnosnih protokola unutar tvrtke. Prošlog mjeseca, bivši i sadašnji zaposlenici OpenAI-a i Google DeepMinda potpisali su otvoreno pismo izražavajući zabrinutost zbog nedostatka nadzora u razvoju novih AI sustava koji bi mogli predstavljati značajne rizike.
Pismo je pozvalo na intervenciju vlade, regulatorne mehanizme i snažnu zaštitu za uzbunjivače od poslodavaca. Dvojica od tri osnivača OpenAI-a, Jeffrey Hinton i Yoshua Bengio, podržali su otvoreno pismo.
U svibnju je OpenAI najavio osnivanje novog odbora za sigurnost i sigurnost koji je zadužen za evaluaciju i poboljšanje operacija AI-a tvrtke te osiguravanje ključnih odluka o sigurnosti i sigurnosti za OpenAI projekte i operacije. Tvrtka je nedavno podijelila nove smjernice za izradu odgovornih i etičkih AI modela, nazvane Model Spec.
Nedavni izvještaj otkrio je dodatne detalje o zabrinutostima oko sigurnosnih protokola u OpenAI-u te je osvijetlio ključna pitanja i izazove vezane uz taj problem.
Ključna pitanja:
1. Koji su konkretan sigurnosni protokoli zanemareni od strane OpenAI-a tijekom razvoja AI modela?
2. Kako je pritisak za ubrzanje implementacije novih testnih protokola utjecao na sigurnosne mjere?
3. Koje potencijalne rizike nose AI sustavi koji nemaju adekvatne sigurnosne i sigurnosne protokole?
4. Kako su zaposlenici i stručnjaci industrije predložili rješavanje sigurnosnih zabrinutosti u OpenAI-u?
5. Koje su prednosti i nedostaci pristupa OpenAI-a prioritetiziranju razvoja AI modela nad sigurnosnim protokolima?
Izazovi i kontroverze:
– Zaposlenici OpenAI-a osjećali su pritisak da prioritetiziraju lansiranje novih AI modela nad osiguravanjem robusnih sigurnosnih protokola, postavljajući pitanje o potencijalu katastrofalne štete.
– Zanemarivanje sigurnosnih protokola može rezultirati AI sustavima koji pružaju štetne informacije ili sudjeluju u opasnim radnjama, poput olakšavanja izrade oružja ili cyber napada.
– Nedostatak nadzora u izgradnji AI sustava može predstavljati značajne rizike i etičke dileme, te zahtijeva hitnu pozornost i intervenciju.
– Poziv za regulaciju vlade, zaštitu za uzbunjivače i poboljšane sigurnosne mjere odražava rastuću zabrinutost zbog nekontroliranog razvoja AI tehnologija.
Prednosti:
– Ubrzan razvoj AI modela može rezultirati revolucionarnim napretkom u tehnologiji i inovacijama.
– Odlučnost tvrtke OpenAI u osnivanju odbora za sigurnost i sigurnost pokazuje proaktivni pristup u rješavanju sigurnosnih zabrinutosti i poboljšavanju protokola.
– Najnovije smjernice za izgradnju odgovornih i etičkih AI modela, Model Spec, pokazuju spremnost prioritizacije sigurnosnih i etičkih pitanja.
Nedostaci:
– Zanemarivanje sigurnosnih protokola u razvoju AI predstavlja značajne rizike za društvo, moguće rezultirajući neželjenim posljedicama i štetnim ishodima.
– Pritisak za ispunjenje ambicioznih lansirnih rokova može ugroziti sigurnosne mjere i otežati temeljite procjene rizika.
– Nedostatak adekvatnog nadzora i odgovornosti u izgradnji AI sustava može narušiti povjerenje javnosti i izazvati etičke probleme u području umjetne inteligencije.
Za više informacija o važnosti sigurnosnih protokola u razvoju AI i aktualne rasprave oko praksi tvrtke OpenAI, posjetite službenu internetsku stranicu OpenAI-a na OpenAI.