Leazi innovatori britannici chiedono test di sicurezza per l’intelligenza artificiale

Grandi aziende tecnologiche britanniche, tra cui OpenAI, Google DeepMind, Microsoft e Meta, stanno esortando il governo britannico ad accelerare i test di sicurezza per i sistemi di intelligenza artificiale (IA). Mentre le aziende si sono impegnate ad aprire i loro ultimi modelli di IA generativa per la revisione da parte del recentemente istituito AI Safety Institute (AISI), stanno cercando chiarezza sui test, i tempi e il processo di feedback coinvolti.

A differenza degli accordi legalmente vincolanti, questi impegni volontari mettono in luce le sfide di affidarsi all’autoregolamentazione dell’industria nel campo in rapida evoluzione dell’IA. In risposta, il governo britannico ha sottolineato la necessità di future normative vincolanti per rendere gli sviluppatori di IA responsabili della sicurezza dei sistemi.

L’AISI, sostenuto dal governo e che svolge un ruolo centrale nella visione del primo ministro Rishi Sunak per il Regno Unito come leader nel gestire i potenziali rischi dell’IA, ha già avviato i test su modelli di IA esistenti. Ha anche accesso a modelli non ancora pubblicati, come il Gemini Ultra di Google. I test si concentrano sulla mitigazione dei rischi legati all’abuso dell’IA, in particolare nella cybersecurity. La collaborazione con il National Cyber Security Center all’interno del Government Communications Headquarters (GCHQ) offre competenze in questa crucial area.

I recenti contratti governativi rivelano che l’AISI ha stanziato £1 milione per acquisire capacità di testare la suscettibilità dei chatbot di IA all’evasione della sicurezza e la protezione contro gli attacchi di spear-phishing. Inoltre, l’AISI sta sviluppando sistemi automatizzati per agevolare l’ingegneria inversa del codice sorgente, consentendo una valutazione approfondita dei modelli di IA.

Google DeepMind ha espresso il suo impegno a collaborare con l’AISI, mirando a migliorare le pratiche di valutazione e sicurezza dei modelli di IA. Tuttavia, OpenAI e Meta hanno rifiutato di commentare la questione.

Complessivamente, la spinta dei grandi giganti tecnologici britannici per i test di sicurezza dell’IA riflette l’importanza di uno sviluppo e una regolamentazione responsabili per affrontare in modo efficace i potenziali rischi associati ai progressi dell’IA. La focalizzazione del governo sulle normative vincolanti e sulla collaborazione industriale mira a garantire sicurezza e responsabilità nel settore in rapida crescita della tecnologia dell’IA.

FAQ: Le Grandi Aziende Tecnologiche Britanniche Sollecitano Test di Sicurezza per l’IA

1. Cosa stanno sollecitando le grandi aziende tecnologiche britanniche al governo britannico affinché siano accelerate?
Le grandi aziende tecnologiche britanniche, tra cui OpenAI, Google DeepMind, Microsoft e Meta, stanno sollecitando il governo britannico ad accelerare i test di sicurezza per i sistemi di intelligenza artificiale (IA).

2. Quali impegni hanno preso queste aziende?
Le aziende si sono impegnate ad aprire i loro ultimi modelli di IA generativa per la revisione da parte del recentemente istituito AI Safety Institute (AISI).

3. Quali sono le sfide nell’affidarsi all’autoregolamentazione dell’industria nel campo dell’IA?
Gli impegni volontari evidenziano le sfide nell’affidarsi all’autoregolamentazione dell’industria nel campo in rapida evoluzione dell’IA.

4. A cosa fa risalto il governo britannico in risposta?
Il governo britannico fa risalto alla necessità di futuri requisiti vincolanti per rendere gli sviluppatori di IA responsabili della sicurezza dei sistemi.

5. Qual è il ruolo dell’AISI nella visione del governo britannico?
L’AISI, sostenuto dal governo, gioca un ruolo centrale nella visione del Primo Ministro Rishi Sunak per il Regno Unito come leader nel gestire i potenziali rischi dell’IA.

6. Su cosa ha già iniziato i test l’AISI?
L’AISI ha già avviato i test su modelli di IA esistenti, inclusi i modelli non ancora pubblicati come il Gemini Ultra di Google.

7. Su quali rischi si concentrano i test di sicurezza dell’IA?
I test si concentrano sulla mitigazione dei rischi legati all’abuso dell’IA, in particolare nella cybersecurity.

8. Con chi sta collaborando l’AISI per fornire competenze nella cybersecurity?
L’AISI sta collaborando con il National Cyber Security Center all’interno del Government Communications Headquarters (GCHQ) per fornire competenze nella cybersecurity.

9. Quali capacità sta acquisendo l’AISI con £1 milione?
L’AISI ha stanziato £1 milione per acquisire capacità di testare la suscettibilità dei chatbot di IA all’evasione della sicurezza e la protezione contro gli attacchi di spear-phishing.

10. Quali sistemi automatizzati sta sviluppando l’AISI?
L’AISI sta sviluppando sistemi automatizzati per agevolare l’ingegneria inversa del codice sorgente, consentendo una valutazione approfondita dei modelli di IA.

11. In che modo Google DeepMind ha espresso il suo impegno nei confronti dell’AISI?
Google DeepMind ha espresso il suo impegno a collaborare con l’AISI per migliorare le pratiche di valutazione e sicurezza dei modelli di IA.

12. Qual è l’attenzione del governo nel campo della tecnologia dell’IA?
L’attenzione del governo riguarda i requisiti vincolanti e la collaborazione industriale per garantire sicurezza e responsabilità nel settore in rapida crescita della tecnologia dell’IA.

Definizioni:
– IA: Intelligenza Artificiale
– AISI: AI Safety Institute
– Modelli di IA generativa: modelli di IA in grado di creare nuovo contenuto o generare nuovi dati basati su modelli o informazioni esistenti.
– Autoregolamentazione: la capacità di un’industria o un’organizzazione di regolamentarsi da sola senza intervento governativo esterno.

Link correlati:
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Government Communications Headquarters (GCHQ)

The source of the article is from the blog jomfruland.net

Privacy policy
Contact