Le rôle de l’intelligence artificielle dans la modernisation de la santé

Les agences gouvernementales en Australie occidentale ont récemment adopté un cadre d’assurance pour l’intelligence artificielle afin d’évaluer et de gérer les risques liés à leurs projets de prise de décision automatisée et d’intelligence artificielle. L’objectif principal de ce cadre est de promouvoir l’utilisation sûre et responsable de l’IA par le secteur public de l’Australie occidentale, tout en favorisant un environnement qui encourage l’innovation.

Le cadre sert de guide aux fonctionnaires publics, les aidant à se conformer à la politique d’IA de l’Australie occidentale en mettant en œuvre des stratégies d’atténuation des risques et en établissant des mesures de gouvernance et de responsabilité claires. Il intègre cinq principes éthiques auxquels les organisations doivent adhérer lors de l’évaluation de leurs systèmes d’IA, projets et outils basés sur les données.

Pour identifier les risques potentiels, les évaluations internes prennent en compte des facteurs qui pourraient compromettre l’équité, l’explicabilité et l’exactitude des processus de prise de décision. En adoptant une approche systématique, les agences peuvent mener leurs propres évaluations et gérer efficacement les risques si nécessaire. Au cours de la deuxième phase, le cadre encourage les agences à expérimenter divers contrôles d’atténuation des risques, tels que l’augmentation de l’intervention humaine dans les opérations assistées par IA et la validation des modèles d’IA par des tests supplémentaires.

Le champ d’application du cadre englobe une large gamme de technologies. Il inclut des systèmes qui génèrent des prévisions, des recommandations ou des décisions sans programmation explicite. Cela englobe les systèmes de prise de décisions entièrement automatisés et partiellement automatisés, indépendamment des processus avancés impliqués, tels que les modèles de forêt aléatoire ou les réseaux neuronaux. Même les systèmes d’automatisation basés sur des règles et les plates-formes d’IA génériques développés ou formés avec des données spécifiques à l’agence doivent subir une évaluation des risques.

Le cadre d’assurance pour l’IA de l’Australie occidentale va au-delà des exigences du régime de risques d’IA comparable en Nouvelle-Galles du Sud. Alors que le schéma de la Nouvelle-Galles du Sud a une portée plus restreinte et n’est pas rétroactif, le cadre de l’Australie occidentale demande aux fonctionnaires publics d’évaluer les solutions d’IA existantes et de demander un examen auprès du Conseil consultatif d’IA de l’Australie occidentale si nécessaire. De plus, le schéma de l’Australie occidentale ne propose pas d’exemptions pour les systèmes basés sur des applications commerciales largement disponibles ou des outils communs comme les grands modèles de langage.

L’établissement d’un cadre national d’assurance pour l’IA, conforme aux Principes éthiques de l’IA australiens et impliquant des processus d’assurance communs, a été convenu par les ministres des Données et du Numérique de divers États et territoires. À l’exception de la Tasmanie et du Territoire du Nord, tous les ministres ont assisté à la réunion et signé une déclaration commune affirmant leur engagement envers cette initiative.

Le gouvernement de Nouvelle-Galles du Sud, qui a lancé le premier cadre d’assurance pour l’IA en Australie, est actuellement en train de réviser son cadre. Contrairement à la Nouvelle-Galles du Sud, le cadre de l’Australie occidentale a le potentiel de susciter un plus grand nombre d’évaluations et d’examens externes en raison de son approche globale.

FAQ sur l’Intelligence Artificielle en Australie Occidentale

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact