Les entreprises technologiques prennent la responsabilité de protéger les élections avec l’IA

Dans une initiative visant à répondre à la préoccupation croissante de l’ingérence de l’IA dans les élections, vingt entreprises technologiques se sont engagées à empêcher que leurs logiciels ne soient détournés dans le cadre de campagnes politiques. Cet accord volontaire, signé par des leaders de l’industrie tels que Microsoft, Google et Amazon, marque la reconnaissance par ces entreprises du fait que leurs propres produits d’IA comportent des risques inhérents à l’époque où des milliards de personnes dans le monde entier sont appelées à voter.

L’accord reconnaît explicitement le potentiel de contenus trompeurs générés par l’IA pour saper l’intégrité des processus électoraux. En signant l’engagement, les entreprises prennent la responsabilité de veiller à ce que les outils qu’elles développent ne soient pas utilisés de manière malveillante lors des élections. Brad Smith, vice-président et président de Microsoft, a souligné la nécessité pour l’industrie de jouer un rôle actif dans la prévention de la mauvaise utilisation de l’IA, déclarant : « Alors que la société adopte les avantages de l’IA, nous avons la responsabilité d’aider à garantir que ces outils ne deviennent pas des armes lors des élections. »

Bien que certaines personnes aient appelé à une interdiction totale du contenu généré par l’IA lors des élections, l’accord ne va pas aussi loin. Au lieu de cela, les entreprises énoncent huit étapes qu’elles entreprendront tout au long de l’année pour aborder la question. Parmi ces mesures figure le développement d’outils permettant de différencier les images générées par l’IA du contenu authentique et de maintenir la transparence en informant le public des avancées significatives.

L’importance de cette initiative ne peut être sous-estimée, car l’année 2022 est considérée comme la plus importante de l’histoire de la démocratie. Avec des élections prévues dans plusieurs des pays les plus peuplés du monde, dont les États-Unis, l’Inde, la Russie et le Mexique, le potentiel de fausses voix, images et vidéos générées par l’IA pour manipuler l’opinion publique est une réelle préoccupation. L’incident récent impliquant un faux appel téléphonique se faisant passer pour le président Joe Biden a également souligné l’urgence de traiter cette question.

Alors que des entreprises individuelles ont déjà mis en œuvre leurs propres mesures, telles que la tentative de Meta d’étiqueter les images générées par l’IA, l’industrie reconnaît qu’un effort collectif est nécessaire. Nick Clegg, président des affaires mondiales chez Meta, a déclaré : « Avec autant d’élections majeures se déroulant cette année, il est vital que nous fassions tout notre possible pour empêcher que les gens ne soient trompés par du contenu généré par l’IA. » Clegg a également souligné la nécessité de collaboration entre les gouvernements, la société civile et l’industrie technologique pour lutter efficacement contre le contenu trompeur.

L’annonce de cet accord s’est déroulée lors de la Conférence sur la sécurité de Munich, où des dirigeants mondiaux se sont réunis pour discuter des défis mondiaux pressants. La question de l’IA générative a été au centre des discussions publiques et privées, avec le Forum économique mondial à Davos, en Suisse, ayant également été le théâtre de délibérations approfondies sur le sujet.

En abordant de manière proactive les risques posés par l’IA lors des élections, ces entreprises technologiques font un pas significatif vers la garantie de l’intégrité des processus démocratiques dans le monde entier. À travers l’autorégulation et la collaboration, elles visent à protéger le public contre le contenu trompeur généré par l’IA et à garantir la transparence essentielle aux sociétés démocratiques.

The source of the article is from the blog elperiodicodearanjuez.es

Privacy policy
Contact