Taylor Swift utilisée dans une arnaque de fausse offre de casseroles

Un récent incident impliquant l’utilisation de l’image de Taylor Swift dans une vidéo deepfake générée par une intelligence artificielle a attiré l’attention sur la hausse alarmante des arnaques en ligne. La fausse vidéo, qui circule sur les réseaux sociaux, montre Swift endorsing (donne son soutien ?) une fausse offre de casseroles Le Creuset et encourage ses fans à fournir leurs coordonnées bancaires pour avoir une chance de gagner les ensembles de casseroles.

La vidéo deepfake utilise une voix générée par une intelligence artificielle qui ressemble à celle de Swift, affirmant : « Salut tout le monde, c’est Taylor Swift. En raison d’une erreur d’emballage, nous ne pouvons pas vendre 3 000 ensembles de casseroles Le Creuset. Donc je les offre gratuitement à mes fidèles fans. Si vous voyez cette publicité, vous pouvez obtenir un ensemble de casseroles gratuitement aujourd’hui – mais juste une mise en garde, il y a quelques règles. » Les fans sont ensuite invités à soumettre leurs coordonnées dans un formulaire sous la vidéo et à payer des frais de livraison minimes.

Malheureusement, ceux qui ont fourni leurs coordonnées bancaires et payé les frais de livraison se sont retrouvés victimes de prélèvements récurrents, selon The New York Times. Il n’est pas clair qui est derrière cette escroquerie, qui a été publiée dans divers groupes Facebook avant d’être rapidement supprimée.

Cet incident met en évidence les préoccupations croissantes liées aux vidéos deepfake et à la capacité des cybercriminels à exploiter les individus. Les plateformes de synthèse vocale rendent facile et bon marché la création de ces vidéos trompeuses pour les gangs criminels. Ils peuvent utiliser des voix générées par l’intelligence artificielle et des logiciels de synchronisation labiale pour créer des vidéos réalistes qui sont difficiles à distinguer du contenu authentique.

Selon une étude de McAfee, une personne sur douze en Grande-Bretagne a déjà été ciblée par des cybercriminels utilisant des vidéos deepfake pour se faire passer pour leurs proches, la plupart des victimes perdant de l’argent par la suite. L’étude a également révélé que 95% des personnes sont incapables de distinguer une fausse voix générée par l’intelligence artificielle d’une voix réelle.

Cet incident rappelle qu’il est important d’être vigilant et prudent lors de l’interaction avec des promotions ou des offres en ligne. Il est essentiel de vérifier l’authenticité de telles annonces et de ne fournir des informations personnelles que sur des plateformes fiables et officielles.

The source of the article is from the blog dk1250.com

Privacy policy
Contact