La loi emblématique sur l’intelligence artificielle en Europe prend forme

Le Parlement européen a officiellement approuvé la première législation complète au monde sur l’intelligence artificielle, marquant un bond significatif vers la régulation des technologies d’IA. Cette initiative répond à l’évolution rapide des technologies numériques et aux risques potentiels et aux incertitudes qu’elles soulèvent.

Le parcours de ce cadre d’IA a commencé au printemps 2021 lorsque la Commission européenne a dévoilé son cadre juridique initial pour l’IA. Au fil du temps, la proposition a évolué, influencée par la prévalence croissante des applications d’IA telles que les chatbots populaires d’OpenAI et de Google, soulignant le potentiel de l’IA dans des utilisations pratiques. Il y avait aussi des préoccupations concernant la création et la diffusion de contenus médias synthétiques, y compris les deepfakes.

Les progrès ont été accélérés pendant la présidence espagnole de l’UE, qui a donné la priorité à cette question, aboutissant à un accord politique préliminaire en décembre 2023. Les négociations trilatérales qui ont suivi ont impliqué des points de vue divergents, en particulier sur l’utilisation des outils d’IA par les forces de l’ordre, avec des emphases variables sur la sécurité par rapport à la vie privée.

La priorité du Parlement européen, comme indiqué sur son site Web, a été de garantir que les systèmes d’IA dans l’UE soient sûrs, transparents, responsables, non discriminatoires et respectueux de l’environnement. Le processus réglementaire a souligné que l’IA doit être ‘fiable’ et que les règles centrées sur l’humain doivent protéger contre les abus des autorités publiques et des entités privées.

En février 2024, l’accord a été approuvé par le Comité des représentants permanents des États membres et a ensuite reçu un soutien décisif du Parlement européen en mars, avec une réglementation devant entrer en vigueur 20 jours après sa publication officielle. Cependant, elle ne sera pleinement applicable que 24 mois plus tard.

La réglementation sera basée sur une définition de l’IA proposée par l’OCDE, qui vise à être technologiquement neutre pour accommoder les futurs systèmes d’IA. La portée de la définition est à la fois une force et une faiblesse, compte tenu de son intemporalité potentielle et des préoccupations concernant son inclusivité vis-à-vis de certains logiciels vaguement liés à l’IA.

Des préoccupations sur les explications détaillées émergent également, notamment concernant les systèmes à haut risque et le droit des citoyens à comprendre leur fonctionnement.

En ce qui concerne les sanctions, la réglementation propose que plus le risque de préjudice social est élevé, plus les obligations et les sanctions en cas de violation doivent être lourdes. Les sanctions peuvent aller de 1,5% du chiffre d’affaires d’une entreprise ou de 7,5 millions d’euros à aussi élevé que 7% ou 35 millions d’euros.

Enfin, l’AI Act classifie les systèmes d’IA en quatre niveaux de risque, la majorité appartenant à la catégorie de risque minimal et ne devant probablement pas être soumis à la nouvelle réglementation de l’UE. Les systèmes à haut risque, comme ceux influençant les résultats électoraux, n’entreront sur le marché qu’après avoir satisfait à certains critères, tandis que les systèmes à risque inacceptable, tels que les techniques de manipulation ou la reconnaissance faciale indiscriminée, seront interdits dans l’UE.

Questions et Réponses Clés :

– Qu’est-ce qui a motivé la création de l’AI Act en Europe ?
Le développement des technologies d’IA et leur intégration croissante dans divers secteurs de la société ont incité à l’établissement de ce cadre législatif. Il vise à atténuer les risques potentiels, à garantir que les technologies sont utilisées de manière éthique et à fournir une clarté pour les développeurs et les utilisateurs d’IA.

– Quelles sont les caractéristiques essentielles de l’AI Act ?
L’Acte introduit des réglementations garantissant que les systèmes d’IA sont sûrs, transparents, responsables, non discriminatoires et respectueux de l’environnement. Il introduit des obligations pour les systèmes d’IA à haut risque et interdit ceux considérés comme présentant un risque inacceptable. Il catégorise les applications d’IA en différents niveaux de risque et y attache des exigences réglementaires correspondantes.

– Quelles sont les principales controverses associées à la législation ?
Une controverse découle de l’équilibre entre la sécurité et la vie privée, en particulier en ce qui concerne les outils d’IA utilisés dans les forces de l’ordre. La définition large de l’IA dans l’AI Act est un sujet de controverse, car elle pourrait inclure des logiciels vaguement liés à l’IA, suscitant le débat sur la portée de la réglementation et la neutralité technologique.

Défis et Controverses Clés :

– Portée Réglementaire : Établir une portée claire et efficace qui capte les systèmes d’IA prévus sans surréglementation est un défi.
– Équilibre entre Vie Privée et Sécurité : Trouver un terrain d’entente sur l’utilisation de l’IA dans les forces de l’ordre met en lumière une tension entre le respect des droits individuels et la garantie de la sécurité collective.
– Neutralité Technique : Veiller à ce que la réglementation reste pertinente et efficace à mesure que les technologies d’IA évoluent pose un défi.
– Impact Mondial : L’AI Act pourrait affecter les entreprises internationales et pourrait inciter à des approches législatives similaires dans le monde entier, créant potentiellement un patchwork de réglementations que les entreprises devront naviguer.

Avantages et Inconvénients :

– Avantages :
– L’AI Act propose un cadre juridique unifié dans toute l’UE, ce qui favorise l’harmonisation et offre une certitude juridique aux développeurs et utilisateurs d’IA.
– Il a le potentiel d’accroître la confiance des consommateurs dans les technologies d’IA grâce à une meilleure sécurité et transparence.
– La focalisation sur les considérations éthiques aide à prévenir les abus et garantit que l’IA est développée de manière centrée sur l’humain.

– Inconvénients :
– La définition large de l’IA pourrait entraîner des inclusions non intentionnelles, aboutissant à une surréglementation de certains logiciels.
– Les coûts de conformité pourraient être élevés, notamment pour les petites et moyennes entreprises (PME).
– La réglementation pourrait ralentir le rythme de l’innovation et du déploiement de l’IA au sein de l’UE par rapport à d’autres régions aux règles moins strictes.

Pour plus d’informations sur l’approche de l’Europe en matière de législation sur l’IA, visitez le site officiel de l’Union européenne sur europa.eu ou le Parlement européen sur europarl.europa.eu. Ces ressources fourniront des informations à jour et les derniers développements sur les réglementations en matière d’IA.

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact