Les défis des nouvelles régulations sur l’IA aux États-Unis : Trouver l’équilibre entre autonomie et surveillance

Les récentes régulations dévoilées par la Maison Blanche visent à encadrer l’utilisation des systèmes d’intelligence artificielle (IA) par les agences fédérales. Ces règles ont pour objectif de protéger contre les risques potentiels de discrimination et de surveillance associés à la technologie de l’IA. Le mémo de l’Office of Management and Budget énonce des « pratiques minimales d’atténuation des risques » auxquelles les agences doivent se conformer avant de mettre en œuvre des systèmes d’IA. Ces pratiques incluent des évaluations d’impact tenant compte des risques potentiels pour les communautés défavorisées, l’évaluation de l’adéquation de l’IA pour des tâches spécifiques, et la surveillance continue des performances dans le monde réel pour protéger les droits des personnes. Le non-respect de ces pratiques ou la découverte de violations des droits ou de la sécurité entraînerait l’interdiction de l’utilisation de l’IA. Le mémo accorde la priorité à la garantie de protection contre les dommages algorithmiques. [source : whitehouse.gov]

Cependant, bien que les régulations offrent des protections complètes, elles accordent également aux agences une grande latitude pour se soustraire à des protections clés. Cette large latitude accordée aux agences à travers des dérogations et des exclusions mine la force des règles. Des critères ambigus, tels que l’évaluation des risques potentiels pour la sécurité ou les droits dans leur ensemble, peuvent entraîner des abus de pouvoir discrétionnaire. Les failles permettant des exclusions si l’IA n’est pas considérée comme une « base principale » pour la prise de décision ressemblent à des exemptions qui ont affaibli les régulations sur les biais de l’IA dans le passé. Ces lacunes réglementaires ont déjà entraîné des résultats discriminatoires, tels que des algorithmes de reconnaissance faciale impactant de manière disproportionnée les demandeurs d’asile noirs et des algorithmes prédictifs défectueux influençant les décisions de libération de prison fédérale.

De plus, le pouvoir de prise de décision pour se soustraire aux pratiques minimales repose uniquement sur les Chief Artificial Intelligence Officers (CAIOs) nommés par l’agence. Bien que ces officiers soient responsables de la surveillance de l’utilisation de l’IA, des points faibles dans les mécanismes d’autorégulation des agences, tels que des organes de surveillance de la vie privée et des droits civils sous-effectifs, posent une menace pour la surveillance efficace. La discrétion exercée par les CAIOs est définitive et n’est pas sujette à appel, soulevant des inquiétudes quant à la responsabilité et à la transparence.

Pour remédier à ces défis et renforcer l’efficacité du mémo de l’OMB, il est suggéré que les agences fédérales limitent les dérogations et les exclusions à des circonstances exceptionnelles. La priorité doit être accordée à la confiance du public plutôt qu’à l’expédience et à la confidentialité. Les agences devraient fournir des explications claires pour toute décision relative aux dérogations ou aux exclusions. L’Office of Management and Budget devrait examiner et réévaluer les décisions si les dérogations et les exclusions sont abusées. Finalement, la responsabilité ultime d’établir des protections exhaustives en matière d’IA incombe au Congrès. Les législateurs ont le pouvoir de codifier des garanties dans la loi et d’établir des mécanismes de surveillance indépendants. Étant donné les dangers potentiels de la technologie de l’IA, maintenir des échappatoires importantes est trop risqué.

FAQ

Q : Quelles sont les principales dispositions des nouvelles régulations sur l’IA imposées par la Maison Blanche ?
R : Les régulations exigent des agences fédérales qu’elles effectuent des évaluations d’impact, évaluent l’adéquation de l’IA pour des tâches spécifiques et surveillent continuellement les performances dans le monde réel pour atténuer les risques pour les communautés défavorisées et protéger les droits des individus.

Q : Comment la latitude étendue et les exemptions accordées aux agences sapent-elles les régulations ?
R : La discrétion accordée aux agences à travers des dérogations et des exclusions peut être sujette à des abus, et les failles permettant des exemptions basées sur le rôle de l’IA dans la prise de décision ont historiquement affaibli les régulations visant à traiter les biais de l’IA.

Q : Quels sont quelques exemples de défauts dans la mise en œuvre actuelle de l’IA par les agences gouvernementales ?
R : Les algorithmes de reconnaissance faciale défectueux ont impacté de manière disproportionnée les demandeurs d’asile noirs, et les algorithmes prédictifs d’IA ont influencé des décisions biaisées concernant la libération de prison fédérale. De plus, les algorithmes utilisés dans des programmes de santé ont entraîné des réductions arbitraires et injustes du soutien aux soins à domicile pour les individus vulnérables.

Q : Quel rôle jouent les Chief Artificial Intelligence Officers (CAIOs) dans la surveillance de l’utilisation de l’IA ?
R : Les CAIOs sont responsables de prendre des décisions concernant les dérogations et les exclusions et sont censés rapporter leurs décisions à l’Office of Management and Budget. Cependant, des points faibles dans les mécanismes d’autorégulation des agences peuvent entraver leur capacité à assurer une surveillance efficace.

Q : Comment ces défauts dans les régulations sur l’IA peuvent-ils être résolus ?
R : Les agences devraient limiter les dérogations et les exclusions à des circonstances exceptionnelles, en accordant la priorité à la confiance du public et à la transparence. L’Office of Management and Budget devrait examiner les décisions et les réévaluer si elles sont abusées. Finalement, le Congrès devrait codifier des garanties exhaustives dans la loi et établir des mécanismes de surveillance indépendants.

The source of the article is from the blog kunsthuisoaleer.nl

Privacy policy
Contact