Les législateurs de Californie ont approuvé un projet de loi novateur visant à réguler le développement des technologies d’intelligence artificielle (IA) dans l’État. Le projet de loi, connu sous le nom de SB-1047, a été adopté par un vote décisif, marquant une avancée significative vers une surveillance plus stricte de l’innovation en matière d’IA.
La législation proposée cible l’influence croissante des systèmes d’IA générative, capables de générer automatiquement des réponses en fonction de leurs données d’entraînement. Le projet de loi impose des exigences strictes aux entreprises telles qu’OpenAI, Google, Apple et Meta, exigeant des tests de sécurité pour les modèles d’IA dépassant les 100 millions de dollars de coûts de développement ou nécessitant une puissance de calcul substantielle.
Dans une mesure qui a suscité un débat divisé, le projet de loi nécessite l’inclusion d’un mécanisme de sécurité, ou « interrupteur d’arrêt d’urgence, » pour éviter les dysfonctionnements de l’IA. De plus, les entreprises d’IA seraient soumises à la supervision du procureur général de l’État, avec des répercussions juridiques en cas de non-conformité.
Plusieurs parties prenantes, y compris des géants de l’industrie et des législateurs, ont exprimé des opinions contrastées sur l’impact potentiel du projet de loi. Alors que les partisans soutiennent la mesure comme un moyen d’améliorer la responsabilité et la sécurité dans le développement de l’IA, les détracteurs soutiennent qu’elle pourrait entraver l’innovation et la croissance économique en Californie.
Avec la législation en attente de l’approbation du gouverneur Gavin Newsom, l’avenir de la réglementation de l’IA en Californie est en suspens, représentant un moment critique pour le rôle de l’État dans le façonnage de l’avenir de la technologie de l’IA.