Politique gouvernementale sur l’intelligence artificielle: Nouvelles directives et objectifs

L’administration Biden a récemment dévoilé trois nouvelles politiques visant à réguler l’utilisation de l’intelligence artificielle (IA) par le gouvernement fédéral. Bien que ces politiques soient perçues comme des modèles pour l’action mondiale, elles visent à aborder les préoccupations liées à l’impact de l’IA sur la main-d’œuvre américaine, la vie privée, la sécurité nationale et le potentiel de prise de décisions discriminatoires.

Pour garantir la sécurité et les droits des Américains, le Bureau de la Gestion et du Budget a ordonné aux agences fédérales d’utiliser l’IA d’une manière qui ne mette pas en danger les « droits et la sécurité » des citoyens. De plus, les agences fédérales seront tenues de publier en ligne une liste des systèmes d’IA qu’elles utilisent, accompagnée d’une évaluation des risques associés à ces systèmes et de la façon dont ils sont gérés.

Par ailleurs, la Maison Blanche impose à toutes les agences fédérales de nommer un responsable principal de l’IA possédant une solide expérience dans le domaine. Cette personne sera chargée de superviser l’utilisation des technologies d’IA au sein de l’agence, en veillant à ce qu’elles soient employées de manière éthique et efficace.

La vice-présidente Kamala Harris, l’une des principales forces derrière l’élaboration des politiques sur l’IA de l’administration, a souligné l’importance de ces réglementations à l’échelle mondiale. Elle estime que tous les dirigeants, quel que soit le secteur, ont la responsabilité de garantir l’adoption et l’avancement responsables de l’IA pour protéger le public des dangers potentiels tout en maximisant ses avantages.

Le gouvernement a déjà divulgué plus de 700 cas d’utilisation actuelle et prévue de l’IA dans diverses agences. Les exemples vont de la détection de la COVID-19 par l’analyse de la toux sur smartphone à l’identification de crimes de guerre présumés et à la prévention du trafic illégal de marchandises. Cependant, pour atténuer les risques potentiels, les agences fédérales devront désormais mettre en place des mesures de sauvegarde qui évaluent, testent et surveillent de manière fiable l’impact de l’IA sur le public. Cela inclut des efforts pour prévenir la discrimination algorithmique et garantir une responsabilité transparente dans l’utilisation de l’IA par le gouvernement.

Un exemple illustratif donné par la vice-présidente Harris concerne l’utilisation de l’IA pour le diagnostic des patients au sein de l’Administration des anciens combattants. Dans ce scénario, il est crucial que le système d’IA démontre que ses diagnostics ne sont pas biaisés racialement.

Le décret présidentiel de Biden sur l’IA, qui utilise le Defense Production Act, impose aux entreprises développant des plates-formes d’IA avancées de notifier et de partager les résultats des tests de sécurité avec le gouvernement. Ces tests, réalisés dans le cadre d’un processus appelé « red teaming », impliquent une évaluation rigoureuse des risques. Le National Institute of Standards and Technology travaille également à l’établissement de normes pour les tests de red teaming afin de garantir la sécurité et le déploiement responsable des technologies d’IA auprès du public.

Ces nouvelles politiques marquent une avancée significative dans la réglementation et la gouvernance de l’IA aux États-Unis. En accordant la priorité à la transparence, à la responsabilité et à la protection des citoyens, le gouvernement fédéral vise à établir un cadre solide qui peut servir de modèle pour les réglementations mondiales sur l’IA.

FAQ sur la réglementation de l’intelligence artificielle par le gouvernement américain

The source of the article is from the blog oinegro.com.br

Privacy policy
Contact