Modèle d’IA avancé démontre le potentiel d’exploitation des vulnérabilités cybernétiques.

Des chercheurs de l’Université de l’Illinois à Urbana-Champaign (UIUC) ont publié une nouvelle étude mettant en lumière un risque potentiel important dans les systèmes d’intelligence artificielle avancés. Selon cette étude, le modèle linguistique GPT-4, qui fait partie de la famille ChatGPT, a la capacité d’identifier et d’exploiter de manière indépendante les vulnérabilités de sécurité dans les systèmes d’information lorsqu’il a accès à des descriptions détaillées de ces failles.

L’étude a utilisé un ensemble de données de 15 vulnérabilités divulguées, appelées vulnérabilités « d’un jour », qui, contrairement aux vulnérabilités de type « zéro jour », sont déjà connues du public. Les chercheurs ont découvert que l’IA, GPT-4, a été en mesure de trouver des aspects exploitables dans 87 % de ces vulnérabilités, suggérant que le modèle pourrait potentiellement réaliser des actions similaires à celles d’un pirate informatique. En revanche, des modèles antérieurs comme GPT 3.5 et d’autres variations open-source n’ont pas démontré la même capacité, affichant un taux de réussite de 0 % dans ces tests.

Il est important de noter que l’étude n’a pas inclus les concurrents directs comme Google Gemini 1.5 Pro en raison de problèmes d’accessibilité, mais les chercheurs espèrent évaluer ces modèles dans de futures études. Daniel Kang de l’UIUC a déclaré à The Register que GPT-4 peut suivre de manière autonome les étapes nécessaires pour exploiter ces vulnérabilités, mettant en lumière son utilisation potentielle comme outil dangereux entre les mains d’acteurs malveillants, facilitant potentiellement l’exécution d’attaques informatiques.

Le progrès rapide des modèles linguistiques comme GPT-4 suggère que les futures itérations, telles que le GPT-5 anticipé, pourraient être encore plus performantes dans de telles tâches, augmentant ainsi les risques potentiels en matière de sécurité. Avec cette perspective, l’urgence de renforcer les mesures de cybersécurité devient évidente alors que l’IA continue d’évoluer.

Principaux défis et controverses : Un des défis majeurs dans l’utilisation de modèles d’IA avancés comme GPT-4 est de veiller à ce qu’ils soient déployés de manière responsable et ne contribuent pas involontairement aux menaces en matière de cybersécurité. La possibilité d’une utilisation de tels outils d’IA à des fins malveillantes soulève des préoccupations éthiques et légales auxquelles les chercheurs et les décideurs politiques doivent répondre. La nature controversée du développement et du perfectionnement des capacités de l’IA pour identifier les vulnérabilités peut être perçue comme une arme à double tranchant : bénéfique pour améliorer la sécurité mais potentiellement dangereuse en cas de mauvais usage.

Avantages : Les modèles d’IA avancés peuvent aider à l’identification préemptive et au colmatage des vulnérabilités, renforçant potentiellement les défenses en cybersécurité. Ils peuvent accélérer considérablement le processus d’évaluation des vulnérabilités, réduisant le temps nécessaire aux professionnels de la sécurité pour identifier et résoudre les problèmes. Cette capacité à analyser et comprendre rapidement des systèmes complexes peut également être une ressource vitale pour former le personnel en cybersécurité et élaborer des protocoles de sécurité plus efficaces et intelligents.

Inconvénients : Le principal inconvénient est le risque de mauvais usage. Des modèles d’IA avancés comme GPT-4, capables d’identifier et d’exploiter des vulnérabilités, pourraient fournir aux cybercriminels des outils puissants pour mener des attaques plus sophistiquées. Un autre inconvénient est la dépendance potentielle à de tels systèmes d’IA, ce qui pourrait entraîner une réduction de la surveillance humaine et de la réflexion critique dans les opérations de cybersécurité. Il existe également un risque que ces systèmes d’IA identifient des faux positifs, conduisant à des actions inutiles ou mal dirigées.

En matière de considérations éthiques et de mesures préventives, des organisations comme OpenAI, à l’origine de la série GPT, ont mis en place des politiques pour un développement et un déploiement d’IA responsables, disponibles sur leur domaine principal à l’adresse OpenAI. De même, pour des informations sur les avancées en matière de sécurité de l’IA et les pratiques éthiques en matière d’IA, l’Institut AI Now est un centre de recherche examinant les implications sociales de l’IA, avec plus d’informations disponibles sur l’Institut AI Now.

Les scénarios futurs doivent trouver un équilibre délicat entre exploiter l’IA pour renforcer la sécurité et empêcher son exploitation par des entités malveillantes. Un dialogue continu dans la communauté de la cybersécurité, une législation claire et une coopération internationale seront cruciaux pour aborder ces questions complexes.

The source of the article is from the blog dk1250.com

Privacy policy
Contact