Las Amenazas de Ataque de Canal Lateral en los Chatbots de IA: Lo que Necesitas Saber

La popularidad de los chatbots de inteligencia artificial (IA) ha aumentado, brindando respuestas rápidas y convenientes a los usuarios. Sin embargo, una reciente investigación realizada por el equipo de la Universidad Ben-Gurión en Israel ha revelado una preocupante vulnerabilidad en las conversaciones de los chatbots de IA. Los hackers pueden aprovechar esta vulnerabilidad para espiar chats privados y potencialmente acceder a información sensible.

La vulnerabilidad en cuestión se conoce como «ataque de canal lateral.» A diferencia de los métodos tradicionales de hacking que implican violar cortafuegos de seguridad, los ataques de canal lateral se basan en la inferencia pasiva de datos utilizando metadatos u otras exposiciones indirectas. Este tipo de ataque puede ser llevado a cabo por actores maliciosos en la misma red o incluso por alguien en Internet que pueda observar el tráfico.

Lo que hace que los chatbots de IA sean particularmente susceptibles a los ataques de canal lateral es sus prácticas de encriptación. Aunque los desarrolladores de IA, como OpenAI, utilizan la encriptación para proteger el tráfico de los chatbots, la investigación realizada por el equipo de la Universidad Ben-Gurión sugiere que los métodos de encriptación empleados son defectuosos. Como resultado, el contenido de los mensajes privados intercambiados con los chatbots de IA puede ser expuesto a posibles oyentes.

Al explotar esta vulnerabilidad, los atacantes pueden inferir aproximadamente las indicaciones dados a los chatbots de IA con un alto grado de precisión. Los investigadores descubrieron que las preguntas sensibles formuladas a los chatbots de IA podían ser detectadas con aproximadamente un 55 por ciento de precisión por actores maliciosos. Esto representa una seria amenaza para la privacidad y seguridad de los usuarios.

Es importante tener en cuenta que esta vulnerabilidad va más allá de OpenAI. Según la investigación, la mayoría de los chatbots en el mercado, excepto Google’s Gemini, son susceptibles a este tipo de ataques. El problema radica en el uso de datos codificados conocidos como «tokens» por los chatbots para facilitar el flujo de conversación. A pesar de que el proceso de entrega está generalmente encriptado, los tokens crean un canal lateral a través del cual los atacantes pueden acceder e inferir las indicaciones dadas al chatbot.

Para demostrar la explotación, los investigadores de Ben-Gurión utilizaron datos adquiridos a través del canal lateral y entrenaron un modelo de lenguaje para identificar palabras clave relacionadas con las indicaciones. Los resultados fueron alarmantes, con el modelo de lenguaje infiriendo con precisión las indicaciones generales el 50 por ciento del tiempo y prediciéndolas con una precisión notable del 29 por ciento del tiempo.

Las implicaciones de esta vulnerabilidad son profundamente preocupantes, especialmente en el contexto de temas sensibles como el aborto o cuestiones LGBTQ. Ya que estos temas enfrentan una creciente criminalización, las personas que buscan información o apoyo a través de los chatbots de IA pueden exponerse involuntariamente a daños o castigos.

Microsoft, propietaria de OpenAI y Copilot AI, ha reconocido la vulnerabilidad. Sin embargo, aseguran a los usuarios que los detalles personales, como los nombres, probablemente no se puedan predecir. Microsoft se compromete a abordar el problema con una actualización para mejorar la protección del usuario.

A la luz de estas revelaciones, es fundamental que tanto los desarrolladores de IA como los usuarios prioricen la seguridad y privacidad de las conversaciones de los chatbots de IA. Deben implementarse medidas robustas de encriptación para evitar ataques de canal lateral y garantizar la confidencialidad de la información sensible.

FAQ:

Q: ¿Qué son los ataques de canal lateral?
A: Los ataques de canal lateral implican la inferencia pasiva de datos al explotar metadatos u otras exposiciones indirectas, en lugar de violar cortafuegos de seguridad.

Q: ¿Cómo son vulnerables los chatbots de IA a los ataques de canal lateral?
A: Los métodos de encriptación de los chatbots de IA, empleados para proteger el tráfico, han demostrado ser defectuosos, permitiendo que posibles oyentes accedan al contenido de los mensajes privados.

Q: ¿Pueden otros chatbots ser explotados de la misma manera?
A: Sí, la mayoría de los chatbots en el mercado, excepto Google’s Gemini, son susceptibles a los ataques de canal lateral.

Q: ¿Cómo se pueden prevenir los ataques de canal lateral?
A: Los desarrolladores de IA deben implementar métodos robustos de encriptación para mitigar el riesgo de ataques de canal lateral y proteger la privacidad de los usuarios.

Q: ¿Cuál es la importancia de esta vulnerabilidad?
A: La vulnerabilidad expone información sensible intercambiada con los chatbots de IA, lo que potencialmente puede llevar a daños o castigos en casos que involucran temas sensibles.

The source of the article is from the blog guambia.com.uy

Privacy policy
Contact