Mai 2024 : L’émergence de l’IA de nouvelle génération pose des risques accrus en matière de cybersécurité

Le dévoilement de versions avancées d’Intelligence Artificielle par des grandes entreprises technologiques mondiales comme le GPT-4o d’OpenAI et le Gemini 1.5 Pro de Google en mai 2024 a marqué un bond significatif dans les fonctionnalités intelligentes visant à optimiser les expériences des utilisateurs. Cependant, ces avancées s’accompagnent d’une escalade des scénarios de fraudes en ligne.

Croissance Exponentielle des Menaces en Cybersécurité

Lors d’un séminaire récent, le Vice-Ministre vietnamien de l’Information et des Communications, Phạm Đức Long, a évoqué l’augmentation constante des incidents de cyberattaques, de plus en plus sophistiquées et complexes. Cette croissance, alimentée par l’IA, accroît les menaces potentielles auxquelles les utilisateurs sont confrontés, permettant aux criminels de créer facilement de nouveaux logiciels malveillants et des escroqueries complexes.

Le rapport de l’Agence Nationale de la Cybersécurité a mis en lumière le coût élevé des risques cybernétiques liés à l’IA, s’élevant à plus de 1 billion de dollars de dommages à l’échelle mondiale. Le Vietnam seul a subi des impacts financiers estimés entre 8 000 et 10 000 milliards de VND. Actuellement, l’utilisation de l’IA pour imiter des voix et des traits faciaux à des fins frauduleuses est en forte augmentation.

Les projections estiment qu’en 2025, il pourrait y avoir environ 3 000 cyberattaques par seconde, combinées à 12 nouvelles souches de logiciels malveillants et 70 vulnérabilités chaque jour.

L’Expansion de la Technologie des Deepfakes dans les Outils Criminels

Nguyễn Hữu Giáp, le Directeur de BShield, une entreprise proposant des solutions de sécurité pour les applications, souligne que la création d’images et de voix fausses n’est pas difficile avec les avancées actuelles de la technologie IA. Les malfaiteurs peuvent facilement récolter des données d’utilisateurs partagées ouvertement sur les réseaux sociaux ou par le biais de tactiques trompeuses comme des entretiens d’embauche en ligne. Les simulations de BShield ont montré comment un fraudeur pouvait insérer un visage existant issu d’un appel vidéo sur une fausse pièce d’identité, le fusionner avec un corps fonctionnel pour tromper les systèmes eKYC, puis être reconnu comme une personne réelle.

Du point de vue d’un utilisateur, l’expert en informatique Nguyễn Thành Trung de Ho Chi Minh-Ville exprime ses inquiétudes quant à la facilité avec laquelle les acteurs malveillants peuvent exploiter l’IA comme chatGPT pour générer des e-mails d’hameçonnage imitant des communications légitimes provenant de banques ou d’entités respectables, parfois contenant des pièces jointes de logiciels malveillants prêts à compromettre celui qui clique sans se méfier.

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact