Les entreprises d’IA exhortent le gouvernement britannique à améliorer les tests de sécurité

Plusieurs grandes entreprises d’intelligence artificielle, dont OpenAI, Google DeepMind, Microsoft et Meta, ont appelé le gouvernement britannique à accélérer ses procédures de tests de sécurité pour les systèmes d’IA. Ces entreprises ont accepté de permettre l’évaluation de leurs modèles d’IA par l’Institut de sécurité de l’IA (AISI) récemment créé, mais elles ont exprimé des inquiétudes concernant le rythme actuel et la transparence du processus d’évaluation. Bien que les entreprises soient disposées à corriger les défauts identifiés par l’AISI, elles ne sont pas tenues de retarder ou de modifier la sortie de leurs technologies en fonction des résultats de l’évaluation.

L’un des points de contention majeurs pour les vendeurs d’IA est le manque de clarté concernant les protocoles de test. Ils recherchent des informations plus détaillées sur les tests effectués, la durée de l’évaluation et le mécanisme de retour d’information. Il existe également une incertitude quant à savoir si les tests doivent être répétés à chaque mise à jour mineure du modèle d’IA, ce que les développeurs d’IA peuvent considérer comme une charge supplémentaire.

Les réserves exprimées par ces entreprises sont valables compte tenu de l’ambiguïté entourant le processus d’évaluation. Avec d’autres gouvernements envisageant des évaluations similaires de la sécurité de l’IA, toute confusion actuelle dans les procédures du Royaume-Uni ne fera qu’intensifier à mesure que d’autres autorités commenceront à faire des demandes similaires aux développeurs d’IA.

Selon le Financial Times, le gouvernement britannique a déjà commencé à tester des modèles d’IA en collaboration avec les développeurs respectifs. Les tests comprennent l’accès à des modèles d’IA sophistiqués pour des tests pré-déploiement, même pour des modèles non publiés tels que le Gemini Ultra de Google. Cette initiative a été l’un des accords clés signés par les entreprises lors du sommet britannique sur la sécurité de l’IA qui s’est tenu en novembre.

Il est impératif pour le gouvernement britannique et d’autres organismes de réglementation de travailler en étroite collaboration avec les entreprises d’IA pour établir des procédures claires et normalisées de tests de sécurité. Des évaluations transparentes et efficaces permettront non seulement d’accroître la confiance dans les technologies d’IA, mais aussi de garantir un déploiement responsable de ces systèmes dans divers secteurs.

Section FAQ

1. Quelles entreprises ont appelé le gouvernement britannique à accélérer ses procédures de tests de sécurité pour les systèmes d’IA ?
Plusieurs grandes entreprises d’IA, dont OpenAI, Google DeepMind, Microsoft et Meta, ont fait cet appel.

2. Quel est le rôle de l’Institut de sécurité de l’IA (AISI) récemment créé ?
Les entreprises ont accepté de permettre l’évaluation de leurs modèles d’IA par l’AISI.

3. Les entreprises retarderont-elles ou modifieront-elles la sortie de leurs technologies en fonction des résultats de l’évaluation ?
Non, les entreprises ne sont pas obligées de retarder ou de modifier la sortie de leurs technologies en fonction des résultats de l’évaluation.

4. Quelles inquiétudes ces entreprises ont-elles exprimées concernant le processus d’évaluation ?
Les entreprises ont exprimé des inquiétudes concernant le rythme actuel, la transparence et le manque de clarté concernant les protocoles de test. Elles recherchent des informations plus détaillées sur les tests effectués, la durée de l’évaluation et le mécanisme de retour d’information.

5. Y a-t-il une incertitude quant à savoir si les tests doivent être répétés pour les mises à jour mineures des modèles d’IA ?
Oui, il y a une incertitude quant à savoir si les tests doivent être répétés à chaque mise à jour mineure du modèle d’IA, ce que les développeurs d’IA peuvent considérer comme une charge supplémentaire.

Termes clés / Jargon

– IA : Intelligence artificielle.
– Institut de sécurité de l’IA (AISI) : Un institut récemment créé chargé d’évaluer les modèles d’IA en matière de sécurité.
– Modèle d’IA : Réfère au système d’intelligence artificielle ou à l’algorithme développé par les entreprises.
– Protocoles de test : Les procédures et lignes directrices suivies pour l’évaluation et les tests des modèles d’IA.
– Tests pré-déploiement : Tests effectués avant que le modèle d’IA ne soit officiellement déployé ou publié.

Liens connexes

– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Financial Times

The source of the article is from the blog queerfeed.com.br

Privacy policy
Contact