Besoin accru d’éducation civique en réponse à la montée des technologies deepfake

L’avancée spectaculaire des technologies d’IA générative a considérablement accru la prévalence des deepfakes – des vidéos et images sophistiquées modifiées qui posent diverses menaces sociétales. La dissémination de ces deepfakes, notamment concernant les personnalités publiques et les entreprises, est devenue plus répandue dans la vie quotidienne, y compris leur utilisation malveillante.

Des rapports récents du Ministère de l’Égalité des sexes et de la Famille indiquent une augmentation des crimes sexuels numériques, avec des incidents impliquant des deepfakes pornographiques montrant une nette augmentation par rapport à il y a quelques années seulement. La création de contenus deepfake mêlant les visages des victimes à des contenus obscènes a augmenté de façon alarmante, alertant les autorités et le public.

Alors que le potentiel de mauvaise utilisation augmente, les efforts gouvernementaux s’accélèrent pour intégrer des initiatives d’éducation à l’IA axées sur la sensibilisation aux implications de l’intelligence artificielle. Ces mouvements impliquent le développement de cadres d’authentification et de sécurité pour les systèmes d’IA à haut risque et le renforcement de l’autorégulation des entreprises.

Dans le but de se prémunir contre les impacts nocifs de l’IA, un sommet sur l’IA co-organisé par la Corée du Sud et le Royaume-Uni aura lieu, visant à discuter et élaborer des mesures de sécurité dans la création et l’application de l’IA.

Des réglementations visant à renforcer la sécurité de l’IA sont déjà en cours au niveau international, la Chine étant pionnière en matière de réglementation des deepfakes et le Royaume-Uni établissant des sanctions significatives pour la création de deepfakes obscènes indépendamment de leur distribution. Cependant, les experts suggèrent que les réglementations actuelles, axées sur les algorithmes et la responsabilité des entreprises, ne sont pas suffisantes pour lutter contre les abus individuels.

Malgré les actions préventives des entreprises, telles que l’incorporation de filigranes dans les contenus générés par IA, la distinction entre données originales et synthétisées reste difficile. La question devient plus urgente à la lumière des services d’IA capables de générer des contrefaçons très convaincantes, brouillant les frontières entre réalité et fabrication artificielle.

Pour lutter contre les aspects sombres de la technologie de l’IA, les experts soulignent la nécessité d’une éducation civique complète. Cette éducation devrait informer le public de la nature double des capacités de l’IA et intégrer des considérations éthiques dans diverses institutions, allant des systèmes éducatifs aux lieux de travail.

Privacy policy
Contact