Industrie technologique s’unit pour combattre la menace des deepfakes

Dans le paysage en constante évolution de la démocratie et de la technologie, l’année 2024 revêt une grande importance. Avec un nombre record de pays et d’individus participant aux élections, nous assistons à un moment historique dans l’histoire humaine. Cependant, aux côtés de ce progrès démocratique, les avancées rapides en intelligence artificielle (IA) posent une menace sans précédent. L’émergence des « deepfakes », des manipulations réalistes de l’audio, de la vidéo et des images, a le potentiel de tromper les électeurs, jouant un jeu dangereux dans le domaine de la politique.

Reconnaissant ce défi urgent, l’industrie technologique a franchi une étape cruciale pour faire face au problème. Lors de la Conférence sur la sécurité de Munich, 20 entreprises de premier plan se sont réunies pour annoncer le Pacte technologique pour combattre l’utilisation trompeuse de l’IA lors des élections de 2024 [1]. Sans aucun doute, l’objectif de ce pacte est crucial – combattre la diffusion de contenus deepfake qui altèrent l’apparence, la voix ou les actions des candidats politiques et d’autres personnalités importantes impliquées dans le processus électoral. Il est important de noter que cette initiative n’est pas motivée par des intérêts partisans ni destinée à étouffer la liberté d’expression. Au contraire, elle vise à sauvegarder le droit fondamental des électeurs de choisir leurs dirigeants, à l’abri de l’influence omniprésente des manipulations générées par l’IA.

Alors que le chemin à parcourir peut être difficile, le Pacte technologique représente un effort significatif et uni de l’industrie technologique. Il marque un moment critique, alors que des élections sont prévues dans plus de 65 pays tout au long de l’année. Bien qu’il reste beaucoup à faire, cette initiative mondiale sert de base pour une action immédiate, générant de l’élan dans divers secteurs.

Le principal problème qui nécessite notre attention est la création de deepfakes réalistes à l’aide d’outils d’IA générative. Ces outils sont devenus de plus en plus accessibles, permettant la production d’audio, de vidéo et d’images convaincantes qui peuvent manipuler l’apparence et les actions des individus. Le laboratoire Microsoft AI for Good a démontré la facilité de ce processus en créant des vidéos qui semblaient authentiques, modifiant même la langue et la fluidité du locuteur. De telles manipulations représentent un risque important pour l’authenticité et l’intégrité des processus démocratiques à l’échelle mondiale.

L’IA a facilité une nouvelle forme de manipulation qui a évolué de manière constante au cours de la dernière décennie, de la prolifération de faux sites Web à l’utilisation de bots sur les médias sociaux. Ces derniers mois ont vu une recrudescence de l’exposition de ce problème et de ses répercussions potentielles sur les élections. Des exemples incluent des appels robotisés générés par l’IA lors de la primaire du New Hampshire, imitant la voix du président Biden, ainsi que des vidéos deepfake mettant en scène le Premier ministre britannique, Rishi Sunak. Le centre d’analyse des menaces de Microsoft a même retracé certaines vidéos deepfake à des acteurs étatiques, soulignant la gravité de la situation.

L’utilisation de l’IA et des deepfakes par des entités malveillantes représente un risque substantiel pour les sociétés démocratiques à l’échelle mondiale, en sapant notamment la capacité du public à prendre des décisions éclairées lors des élections. À cet égard, le problème des deepfakes intersecte deux sphères au sein du secteur technologique. D’une part, il y a des entreprises qui créent des modèles d’IA, des applications et des services capables de générer des contenus audio, vidéo et basés sur des images réalistes. D’autre part, il y a des plateformes et des services par lesquels ces deepfakes peuvent être diffusés au public. Microsoft, en tant qu’acteur de premier plan dans les deux domaines, a mis à profit son expertise pour identifier et combattre les deepfakes. Leur laboratoire AI for Good, en collaboration avec le centre d’analyse des menaces de Microsoft, a analysé et suivi les mauvais acteurs et leurs tactiques, en utilisant des outils d’IA pour une détection améliorée.

Cependant, le cœur de ce défi réside non pas dans la technologie mais dans la collaboration humaine. Alors que les discussions sur les deepfakes prenaient de l’ampleur à l’échelle mondiale, l’action faisait défaut et le temps semblait manquer, en particulier avec les élections imminentes. Face à ces circonstances urgentes, la collaboration est devenue impérative. L’annonce d’aujourd’hui à Munich marque l’aboutissement des efforts de nombreuses entreprises au sein de l’industrie technologique qui se sont unies pour affronter cette menace.

Sans aucun doute, il s’agit d’une journée mémorable, représentant l’engagement et le travail collectif de passionnés issus du secteur technologique. Le Pacte technologique est une étape significative, car il réunit des entreprises des deux sphères de l’industrie pour lutter contre la menace des deepfakes. Bien que le chemin puisse être ardu, cet accord pose les bases pour une action immédiate dans le but de préserver l’intégrité des processus démocratiques à l’échelle mondiale.

The source of the article is from the blog macnifico.pt

Privacy policy
Contact