Obavy týkajúce sa bezpečnostných protokolov v spoločnosti OpenAI zdôraznené nedávnou správou.

Recent report odkryl, že OpenAI urýchľuje vývoj nových modelov umelej inteligencie na úkor bezpečnostných protokolov a bezpečnostných opatrení. Zamestnanci, ktorí si nepriamo nepriamo stáli za otvoreným listom vyjadrujúcim obavy o absenciu dohľadu pri konštrukcii systému umelej inteligencie, vyjadrili obavy. V reakcii na to zrejme OpenAI zriadila nový výbor pre bezpečnosť a ochranu, ktorý tvoria členovia vedenia a vybraní manažéri s cieľom hodnotiť a zlepšovať bezpečnostné protokoly.

Napriek obvineniam zo zanedbania bezpečnostných protokolov traja zamestnanci OpenAI, ktorí sa anonymne vyjadrili pre The Washington Post, zdieľali, že tímu bolo vnútorným tlakom urychliť implementáciu nového testovacieho protokolu, ktorý má zabraňovať umelej inteligencii v spôsobení katastrofických škôd, aby sa splnil naplánovaný spustenie GPT-4 Omni v máji stanovený OpenAI vedením.

Bezpečnostné protokoly majú za cieľ zabezpečiť, aby modely umelej inteligencie neposkytovali škodlivé informácie alebo neslúžili na vykonávanie nebezpečných akcií, ako je napríklad konštruovanie chemických, biologických, radiologických a jadrových zbraní (CBRN) alebo pomáhanie pri kybernetických útokoch.

Okrem toho správa poukázala na podobný incident, ktorý sa odohral pred spustením GPT-4o, ktorý bol opísaný ako najpokročilejší model umelej inteligencie OpenAI. Plány na spustenie sa realizovali bez zabezpečenia jeho bezpečnosti, pričom zamestnanec OpenAI citovaný v správe uviedol: „V tomto procese sme sa základne zlyhali.“

Toto nie je prvý prípad, kedy zamestnanci OpenAI poukazujú na zjavnú nerešpektovanosť bezpečnostných a bezpečnostných protokolov vo firme. Minulý mesiac bývalí a súčasní zamestnanci OpenAI a Google DeepMind podpísali otvorený list vyjadrujúci obavy o absenciu dozoru pri vývoji nových systémov umelej inteligencie, ktoré by mohli predstavovať významné riziká.

V liste sa volal po zásahu vlády, regulačných mechanizmoch a dôslednej ochrane oznamovateľov zamestnávateľmi. Dvaja zo troch spoluzakladateľov OpenAI, Jeffrey Hinton a Yoshua Bengio, podporili otvorený list.

V máji OpenAI oznámila zriadenie novej bezpečnostnej a ochrannej komisie, ktorej úlohou je hodnotiť a zlepšovať AI operácie spoločnosti a zabezpečovať kritické bezpečnostné a ochranné rozhodnutia pre projekty a operácie OpenAI. Spoločnosť nedávno zdieľala nové usmernenia pre vytváranie zodpovedných a etických modelov umelej inteligencie, označovaných ako Model Spec.

Nová správa odhalila ďalšie podrobnosti týkajúce sa obáv zo strany bezpečnostných protokolov v OpenAI, ktorá miera kľúčove otázky a výzvy týkajúce sa tohto problému.

Kľúčové otázky:
1. Aké konkrétne bezpečnostné protokoly OpenAI zanedbalo počas vývoja modelov umelej inteligencie?
2. Aký vplyv mal tlak na urychlenie implementácie nových testovacích protokolov na bezpečnostné opatrenia?
3. Aké potenciálne riziká sú spojené s AI systémami, ktoré nemajú dostatočné bezpečnostné protokoly?
4. Ako navrhli zamestnanci a odborníci adresovať obavy o bezpečnosť v rámci OpenAI?
5. Aké sú výhody a nevýhody prístupu OpenAI k prioritizácii vývoja modelov umelej inteligencie nad bezpečnostnými protokolmi?

Kľúčové výzvy a kontroverzie:
– Zamestnanci OpenAI pociťovali tlak na prioritizáciu spustenia nových modelov AI pred zabezpečením robustných bezpečnostných protokolov, čo vyvoláva obavy o možné katastrofálne následky.
– Neskúsenosť v bezpečnostných protokoloch môže spôsobiť, že AI systémy poskytnú škodlivé informácie alebo sa zapoja do nebezpečných akcií, ako sú vytváranie zbraní alebo kybernetické útoky.
– Absencia dozoru pri konštrukcii AI systémov môže predstavovať značné riziká a etické dilemy, ktoré vyžadujú okamžitú pozornosť a intervenčné opatrenia.
– Výzva po regulácii vlády, ochrane oznamovateľov a zlepšených bezpečnostných opatreniach odráža rastúcu obavu z kontrolovaného vývoja AI technológií.

Výhody:
– Rýchly vývoj modelov umelej inteligencie môže viesť k revolučným pokrokom v technológiách a inováciách.
– Záväzok OpenAI zriadiť komisiu pre bezpečnosť a ochranu ukazuje proaktívny prístup pri riešení bezpečnostných obáv a zlepšovaní protokolov.
– Najnovšie usmernenia pre zodpovedné a etické vytváranie modelov umelej inteligencie, Model Spec, naznačujú ochotu prioritizovať bezpečnostné a etické aspekty.

Nevýhody:
– Zanedbávanie bezpečnostných protokolov pri vývoji AI prináša podstatné riziká pre spoločnosť, čo môže viesť k nežiadúcim dôsledkom a škodlivým výsledkom.
– Tlak na splnenie ambicióznych termínov spustenia by mohol ohroziť bezpečnostné opatrenia a brániť dôkladnému posúdeniu rizík.
– Nedostatok primeraného dozoru a zodpovednosti pri konštrukcii AI systémov môže narúšať verejnú dôveru a vytvárať etické obavy v oblasti umelej inteligencie.

Pre viac informácií o dôležitosti bezpečnostných protokolov pri vývoji umelej inteligencie a o aktuálnych diskusiách týkajúcich sa praktík OpenAI navštívte oficiálnu webovú stránku OpenAI na OpenAI.

The source of the article is from the blog mivalle.net.ar

Privacy policy
Contact