Les Nouvelles Voies pour une Intelligence Artificielle Éthique

Les agences fédérales des États-Unis, y compris le Département du Travail, la Commission Fédérale du Commerce (FTC) et plusieurs autres, ont réitéré leur engagement à lutter contre les biais dans les technologies d’intelligence artificielle (IA). Dans une déclaration officielle publiée jeudi, les agences ont souligné leur dévouement à utiliser leurs autorités collectives pour protéger les droits des individus, que des violations légales surviennent par des moyens traditionnels ou des technologies avancées.

Les signataires de la déclaration incluaient des fonctionnaires du Bureau de Protection Financière des Consommateurs (CFPB), de la Commission de l’Égalité des Chances en matière d’Emploi (EEOC) et des départements de la Justice, du Logement et du Développement Urbain, de l’Éducation, de la Santé et des Services Sociaux, de la Sécurité Intérieure et du Travail.

Alors que les entreprises s’appuient de plus en plus sur l’IA pour prendre des décisions critiques concernant les individus, telles que la sélection des candidats à un emploi et la détermination des taux hypothécaires, il est devenu essentiel d’aborder le potentiel de biais dans ces systèmes automatisés. La déclaration met en avant le fait que des biais peuvent infiltrer les modèles d’IA en raison de données défectueuses, d’un manque de transparence dans la performance du modèle et d’une utilisation incorrecte des outils d’IA. Ces biais peuvent avoir des conséquences négatives à grande échelle lorsque ces systèmes sont largement déployés.

« Alors que les outils d’IA offrent une immense promesse, leur utilisation a également le potentiel de perpétuer des biais illégaux, automatiser des discriminations illicites et engendrer d’autres résultats néfastes, » ont averti les agences dans leur déclaration.

La FTC a déjà pris des mesures contre les infractions liées à l’IA, un exemple notable étant l’interdiction de l’utilisation par Rite Aid de la technologie de reconnaissance faciale pour attraper les voleurs à l’étalage. La FTC a déterminé que la technologie identifiait de manière inexacte un nombre important de femmes et de personnes de couleur. De même, le Bureau des Programmes de Conformité des Contrats Fédéraux du Département du Travail a exprimé son intention d’enquêter sur les impacts négatifs résultant de l’utilisation des outils de sélection d’IA.

Afin de mieux répondre à ces préoccupations, des agences telles que le CFPB, l’EEOC et le HHS publient des lignes directrices clarifiant comment les lois existantes s’appliquent aux technologies d’IA. Cette approche proactive des agences fédérales témoigne de leur engagement à assurer l’équité et la responsabilité dans le développement et le déploiement des systèmes d’IA.

Cette déclaration récente s’appuie sur une précédente publiée en avril par la FTC, l’EEOC, le CFPB et le DOJ, qui a servi de mise en garde aux entreprises que les lois existantes seraient strictement appliquées même dans les cas impliquant des technologies d’IA.

FAQ

The source of the article is from the blog karacasanime.com.ve

Privacy policy
Contact