Une start-up d’IA interdit à un utilisateur de créer une deepfake de Joe Biden dans une tentative de perturbation des élections

Une start-up d’IA appelée ElevenLabs a pris les mesures nécessaires en interdisant à un utilisateur de créer une deepfake de la voix de Joe Biden dans le but de perturber les élections, selon Bloomberg. La deepfake, qui imitait le président, a été utilisée dans un appel automatisé (robocall) encourageant les électeurs du New Hampshire à ne pas participer aux primaires de leur État. Bien qu’il n’ait pas été initialement clair comment la technologie imitait la voix de Biden, une société de sécurité nommée Pindrop a réalisé une analyse approfondie et a réussi à identifier les outils d’ElevenLabs utilisés.

Au lieu d’utiliser des citations directes de l’article d’origine, on peut expliquer que Pindrop a éliminé le bruit de fond et amélioré l’audio de l’appel automatisé avant de le comparer à des échantillons de nombreuses technologies de synthèse vocale associées aux deepfakes. Le PDG de Pindrop, Vijay Balasubramaniyan, a déclaré que l’analyse confirmait l’utilisation des outils d’ElevenLabs avec une certitude dépassant les 99%. Bloomberg a ajouté que bien que la société enquête actuellement sur l’affaire après avoir été informée des conclusions de Pindrop, elle a déjà identifié et suspendu le compte responsable.

L’incident impliquant la deepfake de Biden souligne l’impact potentiel des technologies capables d’imiter la voix et l’apparence d’une personne, en particulier en ce qui concerne la manipulation des votes lors des prochaines élections présidentielles américaines. Kathleen Carley, professeure à l’Université Carnegie Mellon, a exprimé ses inquiétudes à ce sujet auprès de The Hill, affirmant que cela indique ce à quoi il faut s’attendre dans les mois à venir en termes de suppression des électeurs et d’attaques contre les travailleurs électoraux.

Fait intéressant, il a seulement fallu quelques jours après le lancement de la version bêta de la plateforme d’ElevenLabs pour que les gens exploitent la technologie en créant des extraits audio imitant des célébrités disant des choses douteuses. Bien que la start-up encourage l’utilisation de sa technologie pour des discours artistiques et politiques contribuant aux débats publics, elle met en garde les utilisateurs contre des utilisations abusives qui enfreignent la loi, telles que la fraude, la discrimination ou les discours haineux. Néanmoins, cet incident met en évidence la nécessité pour ElevenLabs de mettre en place des protections supplémentaires afin d’empêcher les acteurs malveillants de manipuler les élections dans le monde entier.

Veuillez noter que cet article peut contenir des liens d’affiliation. Si vous cliquez sur un tel lien et effectuez un achat, nous pouvons toucher une commission.

FAQ :
1. Qu’est-ce qu’ElevenLabs ?
ElevenLabs est une start-up d’IA qui a développé des outils pour la technologie de synthèse vocale.

2. Pourquoi ElevenLabs a-t-il interdit à un utilisateur ?
ElevenLabs a interdit à un utilisateur de créer une deepfake de la voix de Joe Biden dans le but de perturber les élections.

3. Comment la deepfake de Joe Biden a-t-elle été utilisée ?
La deepfake a été utilisée dans un appel automatisé (robocall) encourageant les électeurs du New Hampshire à ne pas participer aux primaires de leur État.

4. Comment a-t-on déterminé l’utilisation des outils d’ElevenLabs ?
Une société de sécurité nommée Pindrop a réalisé une analyse approfondie et a confirmé l’utilisation des outils d’ElevenLabs avec une certitude dépassant les 99%.

5. Quelles sont les préoccupations concernant la technologie des deepfakes et les élections ?
L’incident impliquant la deepfake de Biden met en évidence l’impact potentiel des technologies capables d’imiter la voix et l’apparence d’une personne sur la suppression des électeurs et les attaques contre les travailleurs électoraux.

6. À quelle vitesse les gens ont-ils exploité la technologie d’ElevenLabs après son lancement ?
Il a seulement fallu quelques jours après le lancement de la version bêta de la plateforme d’ElevenLabs pour que les gens exploitent la technologie en créant des extraits audio imitant des célébrités disant des choses douteuses.

7. Quels types d’utilisation ElevenLabs encourage-t-il pour sa technologie ?
ElevenLabs encourage l’utilisation de sa technologie pour des discours artistiques et politiques contribuant aux débats publics.

8. Quels types d’utilisation ElevenLabs met-il en garde ?
ElevenLabs met en garde les utilisateurs contre des utilisations abusives qui enfreignent la loi, telles que la fraude, la discrimination ou les discours haineux.

Définitions :
– Deepfake : L’utilisation de l’intelligence artificielle pour créer ou manipuler des contenus audio, vidéo ou autres médias de manière à tromper ou induire le spectateur ou l’auditeur en erreur, en lui faisant croire que le contenu falsifié est authentique.
– Robocall : Un appel téléphonique automatisé qui délivre un message préenregistré à un grand nombre de personnes.

Liens connexes suggérés :
– Site web d’ElevenLabs
– Site web de Pindrop
– Université Carnegie Mellon

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact