Une nouvelle ère pour l’intelligence artificielle en Europe

L’introduction:
La récente réglementation, élaborée après des négociations avec les États membres, a été largement approuvée et vise à traiter les risques potentiels associés à l’intelligence artificielle (IA) tout en favorisant l’innovation. En mettant l’accent sur la protection des droits fondamentaux, de la démocratie, de l’État de droit et de la durabilité environnementale, cette nouvelle législation positionne l’Europe en tant que leader dans le domaine de l’IA.

Applications interdites:
Afin de protéger les droits des citoyens, la réglementation interdit certaines applications d’IA. Cela inclut l’utilisation de systèmes de catégorisation biométrique basés sur des caractéristiques sensibles et le raclage non ciblé des images faciales pour créer des bases de données de reconnaissance faciale. La reconnaissance des émotions sur les lieux de travail et dans les écoles, le scoring social, la police prédictive basée uniquement sur le profilage, ainsi que l’IA visant à manipuler le comportement humain ou exploiter des vulnérabilités sont également interdits en vertu de ces nouvelles règles.

Exceptions pour les forces de l’ordre:
Bien que la réglementation adopte une position ferme pour garantir la protection des droits des individus, elle reconnaît la nécessité d’exceptions limitées dans le domaine des forces de l’ordre. L’utilisation de systèmes d’identification biométrique (RBI) par les agences chargées de l’application de la loi est généralement interdite, sauf dans des scénarios spécifiques et bien définis. Le déploiement de RBI en « temps réel » nécessite des garanties strictes, telles que des limitations temporelles et géographiques, ainsi qu’une autorisation judiciaire ou administrative explicite. L’utilisation postérieure de tels systèmes (« post-remote RBI ») est considérée comme à haut risque et nécessite une autorisation judiciaire liée à une infraction pénale.

Obligations pour les systèmes à haut risque:
Pour traiter les dangers potentiels pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit, la réglementation impose des obligations claires aux systèmes d’IA à haut risque. Ces exigences s’appliquent aux infrastructures critiques, à l’éducation, à la formation professionnelle, à l’emploi, aux services publics et privés essentiels (par exemple, les soins de santé, la banque), à certains systèmes des forces de l’ordre, à la gestion des migrations et des frontières, ainsi qu’à la justice et aux processus démocratiques (par exemple, l’influence électorale). Les systèmes à haut risque doivent mener une évaluation et une réduction des risques, conserver des journaux d’utilisation complets, intégrer la transparence et la précision, et garantir une supervision humaine. De plus, les citoyens ont le droit de déposer des plaintes concernant les systèmes d’IA et de recevoir des explications sur les décisions affectant leurs droits lorsque des systèmes d’IA à haut risque sont impliqués.

Exigences en matière de transparence:
La réglementation souligne la nécessité de transparence dans les systèmes d’IA à usage général (GPAI) et les modèles qui les sous-tendent. Ces exigences comprennent le respect du droit d’auteur de l’UE et la publication de résumés détaillés du contenu utilisé pour l’entraînement. Les modèles GPAI particulièrement puissants qui pourraient poser des risques systémiques seront soumis à des exigences supplémentaires, telles que des évaluations de modèle, l’analyse et la réduction des risques systémiques, ainsi que la fourniture de rapports d’incident. De plus, la réglementation exige un étiquetage clair des images, de l’audio ou de vidéos artificiels ou manipulés (« deepfakes »).

Mesures de soutien à l’innovation et aux PME:
Reconnaissant l’importance de favoriser l’innovation, la réglementation autorise les autorités nationales à établir des « bacs à sable » réglementaires et à faciliter les tests en conditions réelles. Ces dispositions visent à permettre aux petites et moyennes entreprises (PME) et aux startups de développer et d’entraîner des technologies d’IA innovantes avant de les commercialiser.

FAQ:

Q: Quel est l’objectif de la réglementation récemment ratifiée sur l’IA?
A: La réglementation sur l’IA vise à protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale tout en favorisant l’innovation dans le domaine de l’IA.

Q: Y a-t-il des applications d’IA interdites en vertu de la nouvelle réglementation?
A: Oui, certaines applications d’IA, telles que les systèmes de catégorisation biométrique basés sur des caractéristiques sensibles et le raclage non ciblé des images faciales, ainsi que la reconnaissance des émotions sur les lieux de travail et dans les écoles, le scoring social, la police prédictive basée uniquement sur le profilage, et l’IA conçue pour manipuler le comportement humain ou exploiter des vulnérabilités, sont toutes interdites.

Q: Y a-t-il des exceptions pour les agences de forces de l’ordre?
A: Oui, des exceptions limitées existent pour l’utilisation de systèmes d’identification biométrique (RBI) dans les forces de l’ordre, à condition que des garanties strictes soient respectées, notamment une autorisation explicite et le respect des limitations temporelles et géographiques.

Q: Quelles obligations sont imposées aux systèmes d’IA à haut risque?
A: Les systèmes d’IA à haut risque doivent subir une évaluation et une réduction des risques, conserver des journaux d’utilisation complets, garantir la transparence et la précision, et intégrer une supervision humaine. Les citoyens ont également le droit de déposer des plaintes et de recevoir des explications sur les décisions influencées par les systèmes d’IA à haut risque.

Q: Comment la réglementation aborde-t-elle la transparence?
A: Les systèmes d’IA à usage général doivent respecter des exigences en matière de transparence, notamment le respect du droit d’auteur, la publication de résumés du contenu d’entraînement, et l’étiquetage clair des contenus artificiels ou manipulés (« deepfakes »).

Q: Comment la réglementation soutient-elle l’innovation et les PME?
A: La réglementation permet l’établissement de « bacs à sable » réglementaires et de tests en conditions réelles au niveau national, offrant aux PME et aux startups des opportunités de développer et d’entraîner des technologies d’IA innovantes.

Conclusion:
Avec cette réglementation révolutionnaire, l’Europe franchit une étape importante pour garantir le développement et l’utilisation responsables de l’IA. En trouvant un équilibre entre la protection des droits fondamentaux et la promotion de l’innovation, l’Europe se positionne comme un leader mondial dans ce domaine en pleine évolution.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact