Aziende di intelligenza artificiale esortano il governo britannico a migliorare i test di sicurezza

Diverse importanti aziende di intelligenza artificiale, tra cui OpenAI, Google DeepMind, Microsoft e Meta, hanno chiesto al governo britannico di accelerare i suoi procedimenti di test di sicurezza per i sistemi di intelligenza artificiale. Queste aziende hanno accettato di permettere la valutazione dei loro modelli di intelligenza artificiale dal nuovo istituto AI Safety (AISI) appena istituito, ma hanno espresso preoccupazione riguardo all’attuale ritmo e trasparenza del processo di valutazione. Sebbene le aziende siano disposte a prendere in considerazione eventuali difetti individuati dall’AISI, non sono obbligate a ritardare o modificare il rilascio delle loro tecnologie in base agli esiti della valutazione.
Uno dei principali punti di contesa per i fornitori di intelligenza artificiale è la mancanza di chiarezza relativamente ai protocolli di test. Queste aziende cercano informazioni più dettagliate sui test in corso, la durata della valutazione e il meccanismo di feedback. Inoltre, c’è incertezza sul fatto che i test debbano essere ripetuti ogni volta che viene effettuato un aggiornamento minore al modello di intelligenza artificiale, un requisito che gli sviluppatori di intelligenza artificiale potrebbero considerare oneroso.
I dubbi espressi da queste aziende sono validi considerando l’ambiguità che circonda il processo di valutazione. Con altri governi che stanno contemplando valutazioni di sicurezza simili per l’intelligenza artificiale, qualsiasi confusione attuale nei procedimenti del Regno Unito si intensificherà solo quando più autorità inizieranno a porre analoghe richieste agli sviluppatori di intelligenza artificiale.
Secondo il Financial Times, il governo britannico ha già avviato dei test di modelli di intelligenza artificiale attraverso una collaborazione con gli sviluppatori rispettivi. I test includono l’accesso a sofisticati modelli di intelligenza artificiale per i test pre-deployment, anche per modelli non ancora rilasciati come Gemini Ultra di Google. Questa iniziativa è stata uno dei principali accordi firmati dalle aziende durante il AI Safety Summit del Regno Unito tenutosi a novembre
È di fondamentale importanza che il governo britannico e altri organi di governo collaborino strettamente con le aziende di intelligenza artificiale per stabilire procedure chiare e standardizzate di test di sicurezza. Valutazioni trasparenti ed efficienti non solo aumenteranno la fiducia nelle tecnologie di intelligenza artificiale, ma garantiranno anche un impiego responsabile di questi sistemi in vari settori.

FAQ

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact