Nuevas Amenazas: El Impacto de la Inteligencia Artificial en Ciberseguridad

La tecnología de inteligencia artificial (IA) se ha consolidado como una herramienta poderosa en diversos campos, desde el procesamiento del lenguaje hasta el reconocimiento de imágenes. Sin embargo, investigaciones recientes sugieren que los grandes modelos de lenguaje (LLMs) utilizados en herramientas impulsadas por IA podrían ser manipulados para desarrollar malware auto-augmentado capaz de eludir los métodos de detección tradicionales.

Según un informe de la firma de ciberseguridad Recorded Future, la inteligencia artificial generativa tiene el potencial de evadir las reglas YARA basadas en cadenas al modificar el código fuente de pequeñas variantes de malware. Esta manipulación disminuye las tasas de detección, lo que dificulta que los sistemas de seguridad identifiquen y detengan dicho software malicioso. Si bien este hallazgo surgió de un ejercicio de red teaming, pone de manifiesto las posibilidades preocupantes de las tecnologías de IA en manos de actores malintencionados.

En el experimento, los investigadores enviaron un malware llamado STEELHOOK, asociado al grupo de piratería APT28, a un LLM junto con sus reglas YARA. El objetivo era modificar el código fuente del malware de manera que mantuviera su funcionalidad mientras evadía la detección. El código generado por el LLM logró eludir con éxito las simples reglas YARA basadas en cadenas, demostrando la explotación viable de la IA en la evasión de medidas de ciberseguridad.

No obstante, existen limitaciones en este enfoque. Una restricción significativa radica en la cantidad de texto que un modelo de IA puede procesar a la vez, lo que dificulta operar en bases de código más extensas. Sin embargo, el uso potencial de la IA generativa en las amenazas cibernéticas va más allá de la evasión de la detección.

Las mismas herramientas de IA que manipulan el código de malware también podrían utilizarse para crear deepfakes que imitan a ejecutivos y líderes. Esto plantea preocupaciones sobre suplantaciones a gran escala y la posibilidad de operaciones de influencia que imiten sitios web legítimos. Además, la IA generativa tiene la capacidad de acelerar los esfuerzos de reconocimiento de actores malintencionados que apuntan a instalaciones de infraestructura crítica. Al analizar y enriquecer imágenes públicas, videos e imágenes aéreas, se puede extraer metadatos valiosos para obtener inteligencia estratégica para ataques posteriores.

Es crucial que las organizaciones estén atentas para mitigar los riesgos que plantean estas amenazas impulsadas por la IA. Se recomienda examinar detenidamente imágenes y videos de acceso público que muestren equipos sensibles. Si es necesario, dicho contenido debe revisarse minuciosamente y ser sanitizado para evitar posibles explotaciones.

Mientras el enfoque ha estado principalmente en el mal uso de la tecnología de IA, es importante tener en cuenta que los propios modelos de IA pueden ser objeto de ataques. Investigaciones recientes han revelado que las herramientas impulsadas por LLM pueden ser intervenidas, lo que permite la producción de contenido dañino. Por ejemplo, el paso de entradas de arte ASCII que contienen frases sensibles podría eludir las medidas de seguridad y manipular los LLM para realizar acciones no deseadas. Este ataque práctico, conocido como ArtPrompt, subraya la necesidad de medidas de seguridad reforzadas para proteger los modelos de IA de la manipulación y el mal uso.

A la luz de estos desarrollos, queda claro que la IA juega un papel cada vez más prominente en el panorama de la ciberseguridad. A medida que las capacidades de la IA continúan avanzando, es fundamental que las organizaciones y los individuos se mantengan informados sobre las amenazas emergentes y adopten medidas de seguridad proactivas.

Preguntas Frecuentes

The source of the article is from the blog be3.sk

Privacy policy
Contact