OpenAI rozpustí tím pre hodnotenie rizík AI v dôsledku odchodov vedenia.

OpenAI, renomovaní vývojári populárneho AI ChartGPT, nedávno rozpustili skupinu hodnotenia dlhodobého rizika umelej inteligencie (AI), známu ako tímu Superalignment. Menej než rok po jej vytvorení bolo rozhodnutie prijaté po oznámení odchodov spoluzakladateľov Ilyu Sutskevera a Jana Leikeho, oboch významných osobností v spoločnosti.

Rozpustenie tímu naznačuje posun priorit na strane OpenAI. Kľúčoví členovia Sutskever a Leike vyjadrili obavy z klesajúcej pozornosti venovanej bezpečnosti umelé inteligencie v rámci spoločnosti. OpenAI, ktorá kedysi kládla veľký dôraz na zabezpečenie, aby sa vývoj umelej inteligencie viac zameriaval na prospechy ako na riziká, sa zdá zmenila smer.

Leike, obzvlášť, mal pevné presvedčenie, že firma by sa mala zamerať na aspekty ako bezpečnosť, monitorovanie, prípravu a sociálny vplyv, aby skutočne zosieľala prístup zameraný na bezpečnosť s pokročilou všeobecnou inteligenciou (AGI). Vyjadril obavy, že v posledných rokoch mohla túžba po vzrušujúcich produktových štartoch a obchodných cieľoch zatieniť jadrovú bezpečnostnú kultúru a protokoly spoločnosti OpenAI.

Elon Musk, generálny riaditeľ firmy Tesla, tiež odsúdil rozpuštění tímu na riadení rizika AI. Jeho komentár na platforme „X“ zdôraznil jeho názor, že OpenAI nezohľadňuje bezpečnosť ako svoju primárnu starosť.

Tieto udalosti nastali na pozadí počiatočného záväzku OpenAI viesť a regulovať AI systémy, ktoré by mohli byť inteligentnejšie ako ľudia, aby zabezpečili prospešnejší trajektóriu pre AI technológie. Odchod kľúčových pracovníkov a rozpustenie tímu vyvoláva otázky týkajúce sa toho, ako sa spoločnosť bude pohybovať v rovnováhe medzi inováciami a bezpečnosťou v budúcnosti.

Pre viac informácií o vývoji AI OpenAI a bezpečnostných protokoloch môžete navštíviť ich oficiálnu stránku kliknutím na tento odkaz: [OpenAI](https://www.openai.com).

Privacy policy
Contact