La menace croissante de la désinformation générée par l’IA dans le discours politique

Dans le domaine de la politique, l’utilisation croissante de la technologie d’intelligence artificielle (IA) a suscité de vives inquiétudes à l’approche de l’élection présidentielle américaine de 2024.

Plusieurs récents cas de désinformation générée par l’IA ont suscité un débat public, avec des craintes croissantes quant à ses implications potentiellement significatives sur l’élection à venir. Parmi les exemples notables, on peut citer une vidéo deepfake impersonnant la vice-présidente Kamala Harris, un clip édité du président Biden utilisant un langage explicite, et une image manipulée de Trump en train d’être arrêté.

Les experts mettent en garde contre l’utilisation de la technologie de l’IA pour tromper les électeurs, influencer leurs intentions de vote, voire les dissuader de voter pendant l’élection imminente, ce qui pourrait aggraver les profondes divisions sociétales déjà présentes aux États-Unis.

En réponse à cette menace émergente, de plus en plus de voix appellent les géants de la technologie à renforcer les contrôles. Alors que de nombreuses entreprises ont réduit la modération du contenu sur les médias sociaux, il existe une demande croissante pour l’établissement de mécanismes de gouvernance de l’IA plus rigoureux avant l’élection.

La semaine dernière, le PDG de Tesla, Elon Musk, a partagé une vidéo deepfake de Kamala Harris sur sa plateforme X, où une voix de Harris contrefaite prétendait que Biden souffrait de démence et se montrait incompétent pour gouverner la nation. La vidéo ne comportait aucune étiquette explicite indiquant qu’il s’agissait de satire, et mentionnait uniquement un emoji souriant. Musk a ensuite clarifié qu’il s’agissait d’une pièce satirique. Les chercheurs craignent que les spectateurs puissent interpréter cela comme de l’autodérision authentique de Harris et une critique de Biden.

L’utilisation de la désinformation générée par l’IA pose une préoccupation croissante, avec une tendance particulière à propager des éléments visuels et des vidéos visant à susciter la colère et à intensifier les divisions partisanes en politique. Bien que alarmante, la situation la plus courante pourrait impliquer la fabrication de contenu spécifiquement conçu pour déclencher l’indignation et intensifier la polarisation partisane.

De plus, des cas d’appels téléphoniques automatisés générés par l’IA impersonnant des personnalités politiques pour dissuader les électeurs de participer ont également émergé. Un sondage a révélé que plus de la moitié des Américains pensent que la désinformation générée par l’IA influencera le résultat de l’élection de 2024, environ un tiers exprimant une confiance diminuée dans les résultats électoraux en conséquence.

Plusieurs entreprises technologiques ont confirmé le développement de systèmes de balisage du contenu de l’IA. De plus, plus de 200 organisations de défense appellent à des mesures urgentes pour lutter contre la désinformation de l’IA, y compris des propositions pour interdire l’utilisation de la technologie deepfake dans la publicité politique.

Les organismes de réglementation mettent en garde contre le fait que l’environnement en ligne actuel est saturé de fausses informations, ce qui pose un risque de confusion parmi les électeurs. Ils préconisent que les entreprises de plateformes accélèrent l’affinement des politiques pertinentes pour faire face aux défis posés par les deepfakes et des problèmes similaires.

The source of the article is from the blog exofeed.nl

Privacy policy
Contact