Les Dangers des Menaces Assistées par l’IA dans le Domaine de la Cybersécurité

L’intelligence artificielle (IA) est devenue un outil puissant dans divers domaines, mais des découvertes récentes indiquent qu’elle peut être utilisée de manière abusive pour développer des logiciels malveillants auto-augmentés capables d’éviter les méthodes de détection traditionnelles. Les grands modèles de langage (LLMs) utilisés dans les outils alimentés par l’IA ont la capacité de manipuler le code source des logiciels malveillants, leur permettant ainsi de contourner les systèmes de sécurité.

Un rapport de la société de cybersécurité Recorded Future met en lumière le potentiel de l’IA générative pour échapper aux règles YARA basées sur les chaînes de caractères, utilisées dans la détection de logiciels malveillants. En modifiant le code de petites variantes de logiciels malveillants, le code généré par le LLM peut réduire les taux de détection, rendant plus difficile l’identification et l’arrêt des logiciels malveillants. Cette découverte met en lumière les possibilités préoccupantes des technologies de l’IA entre les mains d’acteurs malveillants.

Dans l’expérience menée par les chercheurs, un logiciel malveillant appelé STEELHOOK a été soumis à un LLM avec ses règles YARA. L’objectif était de modifier le code source du logiciel malveillant de manière à maintenir sa fonctionnalité tout en évitant la détection. Le code généré par le LLM a réussi à contourner les règles YARA simples basées sur les chaînes de caractères, démontrant ainsi le potentiel d’exploitation de l’IA pour éviter les mesures de cybersécurité.

Cependant, cette approche comporte des limites. La quantité de texte qu’un modèle d’IA peut traiter à la fois est limitée, ce qui rend difficile le traitement de bases de code plus importantes. Malgré cette contrainte, l’utilisation de l’IA générative dans les menaces cybernétiques dépasse la simple évitement de la détection.

Les outils d’IA générative peuvent également être utilisés pour créer des deepfakes, des médias synthétiques qui manipulent ou remplacent la ressemblance des individus. Cela soulève des préoccupations quant aux usurpations à grande échelle et à la possibilité d’opérations d’influence imitant des sites légitimes. De plus, l’IA générative peut accélérer les efforts de reconnaissance en analysant et en enrichissant des images publiques, des vidéos et des images aériennes pour extraire des métadonnées précieuses en vue d’attaques ultérieures contre des installations d’infrastructure critique.

Pour atténuer les risques posés par les menaces assistées par l’IA, les organisations sont invitées à examiner de manière critique les images publiques et les vidéos représentant du matériel sensible. Si nécessaire, ces contenus doivent être examinés et désinfectés en profondeur pour éviter toute exploitation potentielle.

Il convient de noter que les modèles d’IA eux-mêmes peuvent être ciblés. Des recherches récentes ont montré que les outils alimentés par des LLM peuvent être débridés, permettant la production de contenu nocif. En soumettant des saisies en art ASCII contenant des phrases sensibles, les mesures de sécurité des LLM peuvent être contournées, conduisant à des actions non désirées. Cette attaque, connue sous le nom ArtPrompt, souligne l’importance de mesures de sécurité renforcées pour se prémunir against la manipulation et l’exploitation des modèles d’IA.

Face à ces développements, il est évident que l’IA joue un rôle de plus en plus prépondérant dans le paysage de la cybersécurité. À mesure que les capacités de l’IA continuent de progresser, il est essentiel pour les organisations et les individus de se tenir informés des menaces émergentes et d’adopter des mesures de sécurité proactives.

FAQ

The source of the article is from the blog mendozaextremo.com.ar

Privacy policy
Contact