Concerns Over Safety Protocols at OpenAI Highlighted by Recent Report

Preoccupazioni Sulle Procedure di Sicurezza presso OpenAI Evidenziate da un Rapporto Recente

Start

Un recente rapporto ha rivelato che OpenAI ha accelerato lo sviluppo di nuovi modelli di intelligenza artificiale trascurando i protocolli di sicurezza. Preoccupazioni sono state sollevate da dipendenti non identificati che hanno firmato una lettera aperta esprimendo disagio per la mancanza di supervisione nella costruzione di sistemi di intelligenza artificiale. In risposta, OpenAI ha istituito un nuovo comitato di sicurezza con membri del consiglio e manager selezionati per valutare e potenziare i protocolli di sicurezza.

Nonostante le accuse di negligenza dei protocolli di sicurezza, tre dipendenti di OpenAI, parlando anonimamente al The Washington Post, hanno condiviso che il team si sentiva sotto pressione per accelerare l’implementazione di un nuovo protocollo di test progettato “per impedire ai sistemi di intelligenza artificiale di causare danni catastrofici” per rispettare il lancio programmato di GPT-4 Omni a maggio, come stabilito dalla dirigenza di OpenAI.

I protocolli di sicurezza mirano a garantire che i modelli di intelligenza artificiale non forniscano informazioni dannose o assistano nell’esecuzione di azioni pericolose come la costruzione di armi chimiche, biologiche, radiologiche e nucleari (CBRN) o l’assistenza in attacchi informatici.

Inoltre, il rapporto ha evidenziato un incidente simile avvenuto prima del lancio di GPT-4o, descritto come il modello di intelligenza artificiale più avanzato di OpenAI. I piani per il lancio sono stati realizzati senza garantirne la sicurezza, con un dipendente di OpenAI citato nel rapporto che ha dichiarato: “abbiamo fallito fondamentalmente in questo processo”.

Non è la prima volta che dipendenti di OpenAI evidenziano una chiara mancanza di rispetto dei protocolli di sicurezza all’interno dell’azienda. Il mese scorso, ex e attuali dipendenti di OpenAI e Google DeepMind hanno firmato una lettera aperta esprimendo preoccupazioni per la mancanza di supervisione nello sviluppo di nuovi sistemi di intelligenza artificiale che potrebbero comportare rischi significativi.

La lettera ha chiesto l’intervento del governo, meccanismi regolatori e una solida protezione per i segnalatori di irregolarità da parte dei datori di lavoro. Due dei tre cofondatori di OpenAI, Jeffrey Hinton e Yoshua Bengio, hanno sostenuto la lettera aperta.

A maggio, OpenAI ha annunciato la costituzione di un nuovo comitato di sicurezza incaricato di valutare e potenziare le operazioni di intelligenza artificiale dell’azienda e garantire decisioni critiche di sicurezza per i progetti e le operazioni di OpenAI. L’azienda ha recentemente condiviso nuove linee guida per la costruzione di modelli di intelligenza artificiale responsabili ed etici, denominate Model Spec.

Un recente rapporto ha svelato dettagli aggiuntivi riguardanti le preoccupazioni sui protocolli di sicurezza presso OpenAI, portando alla luce domande chiave e sfide relative alla questione.

Privacy policy
Contact

Don't Miss

OpenAI Introduces Advanced AI Model for Complex Problem Solving

OpenAI Introduce un Modello AI Avanzato per la Risoluzione di Problemi Complessi

OpenAI ha svelato un modello di intelligenza artificiale innovativo volto
Revolutionizing Conservation Efforts Through AI Evolution

Rivoluzionare gli sforzi di conservazione attraverso l’evoluzione dell’IA

Sfruttando la tecnologia all’avanguardia dell’intelligenza artificiale, un team di studenti