Besoin accru d’éducation civique en réponse à la montée des technologies deepfake

Les avancées rapides dans les technologies d’IA générative ont considérablement augmenté la prévalence des deepfakes – des vidéos et des images sophistiquément modifiées qui posent diverses menaces sociétales. La diffusion de ces deepfakes, notamment concernant les personnalités publiques et les entreprises, est devenue plus répandue dans la vie quotidienne, y compris leur utilisation malveillante.

Des rapports récents du Ministère de l’Égalité des Genres et de la Famille indiquent une augmentation des crimes sexuels numériques, avec des incidents impliquant de la pornographie deepfake montrant une surdité notable par rapport à il y a quelques années seulement. La création de contenus deepfake mêlant les visages des victimes à du contenu obscène a augmenté de manière alarmante, inquiétant aussi bien les autorités que le public.

Alors que le potentiel de mauvais usage augmente, les efforts gouvernementaux s’accélèrent pour intégrer des initiatives d’éducation à l’IA axées sur la sensibilisation aux implications de l’intelligence artificielle. Ces mouvements impliquent le développement de cadres d’authentification et de sécurité pour les systèmes d’IA à haut risque et le renforcement de l’auto-régulation des entreprises.

Dans une perspective de protection contre les impacts nocifs de l’IA, un sommet de l’IA à Séoul, co-organisé par la Corée du Sud et le Royaume-Uni, devrait avoir lieu afin de discuter et de concevoir des mesures de sécurité dans la création et l’application de l’IA.

Des réglementations visant à renforcer la sécurité de l’IA sont déjà en cours à l’échelle internationale, la Chine étant pionnière en matière de réglementation des deepfakes et le Royaume-Uni établissant des sanctions importantes pour la création de deepfakes obscènes, quel que soit leur mode de distribution. Cependant, les experts suggèrent que les réglementations actuelles, axées sur les algorithmes et la responsabilité des entreprises, sont insuffisantes pour lutter contre les abus individuels.

Malgré les actions préventives des entreprises, telles que l’incorporation de filigranes dans les contenus générés par l’IA, distinguer l’original des données synthétisées reste difficile. La question devient plus urgente à la lumière des services d’IA capables de produire des contrefaçons très convaincantes, brouillant les frontières entre la réalité et la fabrication artificielle.

Pour lutter contre les aspects sombres de la technologie IA, les experts soulignent la nécessité d’une éducation civique complète. Une telle éducation devrait informer le public sur la nature double des capacités de l’IA et intégrer des considérations éthiques au sein de diverses institutions, allant des systèmes éducatifs aux lieux de travail.

Privacy policy
Contact