Les géants de la tech britannique demandent des tests de sécurité pour l’IA

Les géants de la tech britannique, dont OpenAI, Google DeepMind, Microsoft et Meta, enjoignent le gouvernement britannique d’accélérer les tests de sécurité pour les systèmes d’intelligence artificielle (IA). Alors que ces entreprises se sont engagées à ouvrir leurs derniers modèles d’IA générative à l’examen de l’AI Safety Institute (AISI) récemment créé, elles souhaitent obtenir des éclaircissements sur les tests, les calendriers et le processus de retour d’informations impliqués.

Contrairement aux accords juridiquement contraignants, ces engagements volontaires mettent en évidence les défis liés à la confiance accordée à l’autorégulation de l’industrie dans le domaine en constante évolution de l’IA. En réponse, le gouvernement britannique insiste sur la nécessité d’imposer à l’avenir des exigences contraignantes afin de rendre les développeurs d’IA responsables de la sécurité de leurs systèmes.

L’AISI soutenu par le gouvernement, qui joue un rôle essentiel dans la vision du Premier ministre Rishi Sunak de faire du Royaume-Uni un leader dans la prise en compte des risques potentiels de l’IA, a déjà commencé à tester des modèles d’IA existants. Il dispose également d’un accès à des modèles non publiés, comme le Gemini Ultra de Google. Ces tests visent à atténuer les risques liés à la mauvaise utilisation de l’IA, notamment en matière de cybersécurité. La collaboration avec le National Cyber Security Centre du Government Communications Headquarters (GCHQ) apporte une expertise essentielle dans ce domaine crucial.

Selon les récents contrats gouvernementaux, l’AISI a alloué £1 million pour acquérir des capacités permettant de tester la vulnérabilité des chatbots d’IA au jailbreaking et de se prémunir contre les attaques de phishing ciblées. De plus, l’AISI développe des systèmes automatisés pour faciliter l’ingénierie inverse du code source, permettant ainsi une évaluation approfondie des modèles d’IA.

Google DeepMind a exprimé son engagement à collaborer avec l’AISI dans le but d’améliorer les pratiques d’évaluation et de sécurité des modèles d’IA. Cependant, OpenAI et Meta ont refusé de commenter cette question.

Dans l’ensemble, les pressions exercées par les géants de la tech britannique en faveur de tests de sécurité pour l’IA reflètent l’importance d’un développement et d’une réglementation responsables afin de faire face efficacement aux risques potentiels associés aux progrès de l’IA. L’accent mis par le gouvernement sur les exigences contraignantes et la collaboration avec l’industrie vise à garantir la sécurité et la responsabilité dans le domaine en pleine expansion de la technologie de l’IA.

FAQ : Les géants de la tech britannique demandent des tests de sécurité pour l’IA

1. Qu’est-ce que les géants de la tech britannique demandent au gouvernement britannique d’accélérer ?
Les géants de la tech britannique, dont OpenAI, Google DeepMind, Microsoft et Meta, demandent au gouvernement britannique d’accélérer les tests de sécurité pour les systèmes d’intelligence artificielle (IA).

2. Quels engagements ces entreprises ont-elles pris ?
Ces entreprises se sont engagées à ouvrir leurs derniers modèles d’IA générative à l’examen de l’AI Safety Institute (AISI) récemment créé.

3. Quels sont les défis liés à la confiance accordée à l’autorégulation de l’industrie dans le domaine de l’IA ?
Les engagements volontaires mettent en évidence les défis liés à la confiance accordée à l’autorégulation de l’industrie dans le domaine en constante évolution de l’IA.

4. Que souligne le gouvernement britannique en réponse à cela ?
Le gouvernement britannique insiste sur la nécessité d’imposer à l’avenir des exigences contraignantes afin de rendre les développeurs d’IA responsables de la sécurité de leurs systèmes.

5. Quel est le rôle de l’AISI dans la vision du gouvernement britannique ?
L’AISI, soutenu par le gouvernement, joue un rôle essentiel dans la vision du Premier ministre Rishi Sunak de faire du Royaume-Uni un leader dans la prise en compte des risques potentiels de l’IA.

6. Quels tests l’AISI a-t-il déjà commencé à effectuer ?
L’AISI a déjà commencé à tester des modèles d’IA existants, y compris des modèles non publiés comme le Gemini Ultra de Google.

7. Sur quels risques les tests de sécurité de l’IA se concentrent-ils ?
Ces tests visent à atténuer les risques liés à la mauvaise utilisation de l’IA, notamment en matière de cybersécurité.

8. Avec qui l’AISI collabore-t-il pour apporter une expertise en cybersécurité ?
L’AISI collabore avec le National Cyber Security Centre du Government Communications Headquarters (GCHQ) pour apporter une expertise en cybersécurité.

9. Quelles capacités l’AISI acquiert-il avec £1 million ?
L’AISI a alloué £1 million pour acquérir des capacités permettant de tester la vulnérabilité des chatbots d’IA au jailbreaking et de se prémunir contre les attaques de phishing ciblées.

10. Quels systèmes automatisés l’AISI développe-t-il ?
L’AISI développe des systèmes automatisés pour faciliter l’ingénierie inverse du code source, permettant ainsi une évaluation approfondie des modèles d’IA.

11. Comment Google DeepMind exprime-t-il son engagement envers l’AISI ?
Google DeepMind a exprimé son engagement à collaborer avec l’AISI dans le but d’améliorer les pratiques d’évaluation et de sécurité des modèles d’IA.

12. Sur quoi se concentre le gouvernement dans le domaine de la technologie de l’IA ?
Le gouvernement se concentre sur les exigences contraignantes et la collaboration avec l’industrie afin de garantir la sécurité et la responsabilité dans le domaine en pleine expansion de la technologie de l’IA.

Définitions :
– IA : Intelligence Artificielle
– AISI : AI Safety Institute
– Modèles d’IA générative : Modèles d’IA capables de créer de nouveaux contenus ou de générer de nouvelles données à partir de schémas ou d’informations existantes.
– Autorégulation : Capacité d’une industrie ou d’une organisation à se réguler elle-même sans intervention gouvernementale externe.

Liens connexes :
– OpenAI
– Google DeepMind
– Microsoft
– Meta
– Government Communications Headquarters (GCHQ)

The source of the article is from the blog meltyfan.es

Privacy policy
Contact