Effort mondial pour équilibrer le développement de l’IA avec la conformité réglementaire

Alors que la création et la diffusion de contenus générés par l’IA évoluent rapidement, les gouvernements du monde entier luttent contre le double défi de protéger la sécurité des citoyens et de favoriser le progrès des technologies IA. Pour atténuer les différents risques posés par l’IA générative, les autorités tracent une voie vers des réglementations efficaces sur l’utilisation de l’IA.

En réponse, les entreprises doivent comprendre les implications des réglementations sur l’IA sur leurs opérations et se préparer de manière proactive à se conformer. Cet article offre des informations sur les tendances et politiques actuelles en matière de réglementation de l’IA chez les acteurs mondiaux clés, y compris les États-Unis et l’Union européenne.

Le gouvernement fédéral américain accorde la priorité à l’évaluation des risques liés à l’IA, en s’intéressant de près aux algorithmes créés et aux processus produisant des décisions pilotées par l’IA. Des mesures législatives proposées abordent les préoccupations concernant l’opacité des opérations d’IA. Par exemple, le projet de loi sur la responsabilité algorithmique, actuellement en cours, rendrait obligatoire l’évaluation des effets de l’IA dans les domaines cruciaux de la prise de décision avant et après son adoption.

Deux textes de loi notables comprennent : le Digital Fakes Accountability Act, visant à accroître la transparence autour de la génération de fausses identités par l’IA, et le Digital Services Oversight and Safety Act, qui demande la transparence dans la création et la diffusion de désinformation.

De plus, un décret exécutif annoncé par l’administration Biden en octobre 2023 met l’accent sur la promotion de l’« IA responsable », qui consiste à garantir l’équité, la transparence et la sécurité des applications et du développement IA. Cela s’inscrit dans un cadre complet visant à protéger les libertés civiles, renforcer la protection des consommateurs, assurer la confidentialité des données et établir le leadership américain en matière de gouvernance de l’IA.

Parallèlement, les gouvernements des États et des municipalités, comme le Colorado avec sa proposition de réglementation sur l’IA dans les assurances-vie et la loi locale 144 de la ville de New York sur l’IA dans les pratiques d’embauche, élaborent également des politiques indépendantes pour protéger les citoyens des risques liés à l’IA.

En Europe, le projet de loi sur l’intelligence artificielle proposé par l’Union européenne, prévu pour être adopté en 2024, vise à réglementer les systèmes d’IA en fonction de leur profil de risque et vise à établir une référence mondiale pour la réglementation de l’IA. Le potentiel de cet acte à générer l’« effet Bruxelles » — où les réglementations de l’UE influencent des entités en dehors de l’UE — mérite une attention particulière.

Dans des régions comme l’Asie et les Amériques, des initiatives similaires émergent, avec la Chine et son introduction de stipulations intérimaires pour les services d’IA, et le Canada qui débat de la Loi sur l’intelligence artificielle et les données, mettant l’accent sur l’atténuation des risques et la transparence dans les applications d’IA. Ces efforts soulignent une tendance mondiale croissante à naviguer soigneusement dans le paysage de la technologie IA tout en priorisant le bien-être public.

The source of the article is from the blog agogs.sk

Privacy policy
Contact