Régulation de l’IA et de la confidentialité des données en Californie : Nouvelles Perspectives

La Californie, connue comme le foyer des géants de la technologie, a récemment pris une mesure significative pour réguler l’utilisation de l’intelligence artificielle (IA) et des données personnelles par les entreprises. Avec des préoccupations croissantes concernant les risques associés à ces technologies en l’absence de lois fédérales claires, l’État a pris l’initiative de traiter ces problématiques.

L’Agence de Protection de la Vie Privée de la Californie (CPPA) a joué un rôle crucial dans l’établissement de directives pour les entreprises dans leur utilisation de l’IA et la collecte de données personnelles. Le conseil, lors d’un vote serré de 3 à 2 tenu à Oakland, a approuvé de nouvelles règles visant à protéger les consommateurs, les travailleurs et les étudiants californiens.

Les règlementations nouvellement mises en place se concentrent sur divers aspects de la vie des Californiens, notamment l’emploi, le logement, l’assurance, les soins de santé et l’éducation. Par exemple, si une entreprise souhaite utiliser l’IA pour évaluer les émotions ou la personnalité de quelqu’un lors d’un entretien d’embauche, l’individu a le droit de refuser de participer sans faire face à une discrimination quelconque.

En vertu de ces règles, les entreprises doivent informer les individus avant d’utiliser l’IA et ne peuvent pas discriminer ceux qui choisissent de ne pas interagir avec l’IA. De plus, si quelqu’un accepte d’utiliser un service ou un outil d’IA, les entreprises doivent être transparentes en répondant aux questions sur la manière dont les données personnelles sont utilisées pour effectuer des prédictions. Les employeurs et les contractants tiers sont également tenus d’évaluer les performances de leur technologie d’IA.

La portée de ces réglementations est étendue, englobant les entreprises générant plus de 25 millions de dollars de revenus annuels ou traitant les données personnelles de plus de 100 000 individus de Californie. Il est à noter que parmi les 50 premières entreprises d’IA à l’échelle mondiale, 35 sont basées en Californie, ce qui rend la réglementation de cet État d’une grande importance.

« Décisions à suivre car la Californie est le berceau des grandes entreprises technologiques et est un centre de population », a déclaré Bob Rogers, PDG de Oii.ai, une entreprise de science des données à San Francisco. « Ce qui s’y passe peut donner le ton pour une grande partie du pays. »

Rogers a souligné que le projet de loi met l’accent sur la nécessité de tests de sécurité préalables au déploiement et de protections en cybersécurité pour les développeurs de grands modèles d’IA. De plus, le procureur général de la Californie s’est vu accorder le pouvoir de tenir les développeurs responsables si un modèle d’IA excessivement puissant cause des dommages.

Alors que la Californie a pris des mesures proactives en matière de réglementation de l’IA, l’absence de lois fédérales globales pose un défi. D’autres États, tels que Washington, New York et Massachusetts, introduisent également des projets de loi pour réglementer l’IA dans des domaines tels que le recrutement, la reconnaissance faciale et les biais algorithmiques. Ces actions au niveau de l’État mettent la pression sur le gouvernement fédéral pour agir rapidement dans la création d’un plan national de surveillance de l’IA.

Cindi Howson, directrice de la stratégie des données chez ThoughtSpot, une entreprise de logiciels de business intelligence, a expliqué l’efficacité des États et des gouvernements locaux dans le traitement des besoins et des préoccupations spécifiques. Elle a cité l’exemple de l’ELVIS Act récemment introduit dans le Tennessee, qui vise à protéger les droits de propriété intellectuelle des musiciens et artistes vocaux au sein de l’industrie musicale prospère de l’État.

« La législation à tous les niveaux évolue bien trop lentement pour suivre le développement rapide de l’IA, en particulier au cours de l’année écoulée », a déclaré Howson. « Malgré les progrès constatés avec l’AI Act de l’UE, il reste en deçà de la vitesse hypersonique de cette technologie. »

Cependant, les experts restent sceptiques quant à la possibilité d’un acte national sur l’IA. Muddu Sudhakar, PDG de l’entreprise d’IA Aisera, a exprimé des doutes sur le fait que le Congrès agirait dans un avenir prévisible, notant que des mesures ne sont généralement prises qu’en cas de crise ou de préoccupations en matière de sécurité nationale.

Malgré les défis, la Maison Blanche, dirigée par le président Biden, a déjà lancé des efforts pour aborder la réglementation de l’IA. Un décret avec de nombreux chantiers liés à l’IA a été publié, indiquant un engagement envers de nouveaux développements dans ce domaine.

Questions Fréquemment Posées (FAQ)

The source of the article is from the blog krama.net

Privacy policy
Contact