Progrès en intelligence artificielle entraînent une augmentation de l’activité des deepfakes audio

Les technologies émergentes en matière d’imitation vocale

La prévalence des enregistrements audio falsifiés, en particulier ceux impliquant des personnalités publiques influentes, est en hausse alors que des technologies capables d’imiter des voix avec une grande précision commencent à proliférer sur les plateformes numériques. Les chercheurs ont observé des avancées substantielles dans ce domaine au cours des dernières années, dotant ceux ayant de mauvaises intentions d’outils plus sophistiqués que jamais auparavant. Cole Whitecotton, chercheur en son à l’Université du Colorado Denver, a observé cette croissance de capacité, ces outils étant désormais utilisés dans divers types de tromperie, y compris la manipulation politique autour des élections.

Dans un incident signalé, un extrait audio manipulé donnait l’impression que le maire de Londres suggérait aux citoyens de renoncer aux cérémonies du Jour de l’Armistice au profit d’événements pro-palestiniens. Un autre cas préoccupant impliquait un leader politique en Slovaquie étant impliqué dans une manipulation audio profonde pour truquer une élection. Les cas de manipulation audio ont également été significatifs au Pakistan, où un enregistrement falsifié d’Imran Khan alors qu’il était en détention a été diffusé.

Défis de la détection des contrefaçons audio

La falsification audio traditionnelle impliquait le découpage de enregistrements existants, mais avec l’avènement de l’IA, des voix entières peuvent être clonées pour produire des déclarations jamais réellement prononcées par l’individu. Ce processus amélioré de clonage crée de nouveaux défis pour la vérification, car l’oreille humaine peut ne pas remarquer facilement les incohérences, bien que des « hiccups » subtils ou des irrégularités acoustiques puissent être des indicateurs de manipulation.

Les autorités et le public sont désormais aux prises avec la détection de ces deepfakes sophistiqués. Bien qu’il existe des systèmes de détection et des outils en ligne disponibles pour analyser la probabilité qu’un enregistrement soit généré par une IA, ils ne sont pas infaillibles.

Trouver la source est essentiel pour la vérification

Une mesure cruciale pour authentifier un extrait audio suspect est de retracer ses origines. Des grands médias, tels que NBC News et la BBC, ont réussi dans cette entreprise, vérifiant l’inauthenticité de certains enregistrements frauduleux. Cependant, Robert C. Maher, un expert de l’Université d’État du Montana, souligne l’importance de poursuivre les recherches pour faire progresser les systèmes de détection, mettant en garde contre le fait de conclure prématurément à la véracité d’un extrait sans preuves solides.

Cole Whitecotton souligne également l’importance de comprendre ces plateformes médiatiques synthétiques pour une meilleure défense contre la fraude. Alors que la technologie progresse, reconnaître et s’éduquer sur les capacités et les limites des méthodes de détection reste essentiel pour identifier les clips audio deepfake.

Progrès de l’IA et des deepfakes audio

La capacité croissante de l’intelligence artificielle à synthétiser et manipuler les voix humaines a des implications significatives dans divers domaines, de divertissement et éducation à la cybersécurité et la politique. Des systèmes d’IA, tels que WaveNet de DeepMind et Jukebox d’OpenAI, ont démontré la capacité de générer de la parole qui peut imiter des individus spécifiques, suscitant à la fois l’intérêt et l’inquiétude quant à leurs applications potentielles.

Importance de l’éthique dans le développement de l’IA

Une question importante qui se pose avec l’avancée de la technologie deepfake audio est de savoir comment garantir une utilisation éthique. À mesure que l’IA devient plus capable de créer des deepfakes convaincants, le potentiel de mauvais usage se multiplie. Cela conduit à des controverses telles que la création de faux parrainages, des escroqueries d’usurpation d’identité et la propagation de fausses informations.

Défis réglementaires

Un autre défi majeur auquel sont confrontés les régulateurs et les technologistes est d’établir des cadres juridiques qui puissent suivre le rythme des avancées technologiques. Actuellement, il existe un manque de législation globale visant spécifiquement la technologie deepfake, créant une zone grise juridique concernant leur création et leur distribution.

Avantages et inconvénients de la technologie deepfake audio

La technologie deepfake audio a ses avantages. Dans le domaine du divertissement, elle peut être utilisée pour recréer les voix d’acteurs décédés ou pour le doublage de langues dans les films et jeux. Dans l’éducation, elle peut offrir des expériences d’apprentissage interactives et personnalisées.

Cependant, les inconvénients sont significatifs. Les deepfakes audio peuvent être utilisés pour fabriquer de faux récits, ayant un impact sur le discours politique et pouvant potentiellement provoquer des troubles sociaux. Ils constituent une menace pour la sécurité personnelle et nationale, où des échantillons audio pourraient être manipulés pour imiter des individus à des fins frauduleuses.

Pour plus d’informations sur les dernières tendances technologiques et les considérations éthiques entourant l’IA, vous pouvez visiter les sites suivants :

– DeepMind
– OpenAI
– Institut national américain des normes et de la technologie (NIST)

Pour maintenir la crédibilité et contrer la propagation de la désinformation, il est essentiel de mettre en place des systèmes de vérification robustes, d’éduquer le public sur l’existence et la nature des deepfakes, et de rechercher la collaboration entre les développeurs d’IA, les décideurs politiques et les experts en cybersécurité pour gérer et atténuer les risques associés à la technologie deepfake audio.

[incorporer]https://www.youtube.com/embed/l-iXqWIaQAA[/embed]

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact