Los peligros de compartir información privada con los chatbots de AI

Los chatbots de AI han tenido avances notables en las últimas dos décadas, pero los problemas relacionados con la privacidad han seguido siendo una preocupación persistente. Si bien el desarrollo de estas interfaces conversacionales ha revolucionado las interacciones entre humanos y computadoras, es crucial tener precaución acerca de la información que compartimos con ellos.

En un artículo de Jack Wallen en ZDNet, se destaca el chatbot Gemini de Google (anteriormente conocido como Bard) como ejemplo. La declaración de privacidad de Google revela explícitamente que todas las conversaciones con Gemini se almacenan durante un período de tres años y están sujetas a revisión humana. Sin rodeos, los términos y condiciones advierten a los usuarios que eviten ingresar cualquier información que consideren confidencial o datos que no deseen que se utilicen para mejorar los productos y servicios de Google.

Aunque Google asegura a los usuarios que los revisores hacen esfuerzos para eliminar datos privados explícitos como números de teléfono y direcciones de correo electrónico, ha habido casos de filtraciones de modelos de lenguaje similares. Una filtración de ChatGPT el año pasado expuso el riesgo potencial de acceder a información de entrenamiento, lo que sugiere que la confidencialidad no siempre puede garantizarse.

Además, no solo debemos tener cuidado con las filtraciones, sino también con las prácticas de ciertas compañías de AI. Mozilla informa que las «novias» de AI violan la privacidad del usuario de formas alarmantes. CrushOn.AI, por ejemplo, recopila detalles sensibles, como información sobre salud sexual, uso de medicamentos y atención de género afirmante. Sorprendentemente, más del 90% de estas aplicaciones pueden vender o compartir datos de usuario para publicidad dirigida y otros fines. Además, más de la mitad de estas aplicaciones incluso se niegan a permitir a los usuarios eliminar los datos recopilados.

A la luz de estas preocupaciones, es evidente que discutir asuntos privados con modelos de lenguaje grandes conlleva riesgos inherentes. Si bien es obvio que nunca se deben compartir identificadores personales como números de seguro social, números de teléfono y direcciones, la precaución se extiende a cualquier información que los usuarios no deseen que se filtre en el futuro. Estas aplicaciones de AI simplemente no brindan las salvaguardias necesarias para proteger la privacidad.

A medida que la AI continúa avanzando, es imperativo que los usuarios sean conscientes de las posibles consecuencias de interactuar con chatbots y tecnologías similares. Proteger nuestra privacidad demanda una evaluación crítica de la información que revelamos y las plataformas a través de las cuales elegimos comunicarnos.

Preguntas frecuentes:

1. ¿Cuál es la principal preocupación en torno a los chatbots de AI?
La principal preocupación en torno a los chatbots de AI es la privacidad y el riesgo potencial de compartir información personal con estas interfaces conversacionales.

2. ¿Cuál es la declaración de privacidad con respecto al chatbot Gemini de Google?
Según la declaración de privacidad de Google, todas las conversaciones con Gemini se almacenan durante un período de tres años y están sujetas a revisión humana. Se advierte a los usuarios que eviten ingresar cualquier información confidencial o datos que no deseen que se utilicen para mejorar los productos y servicios de Google.

3. ¿Las filtraciones de datos privados son un evento común en los modelos de lenguaje?
Si bien Google asegura a los usuarios que se hacen esfuerzos para eliminar datos privados explícitos, ha habido casos de filtraciones en modelos de lenguaje similares, lo que resalta el riesgo potencial de acceder a información de entrenamiento y la imposibilidad de garantizar la confidencialidad.

4. ¿Qué preocupaciones de privacidad plantean las «novias» de AI?
Mozilla informa que las «novias» de AI violan la privacidad del usuario al recopilar detalles sensibles como información sobre salud sexual, uso de medicamentos y atención de género afirmante. Sorprendentemente, más del 90% de estas aplicaciones pueden vender o compartir datos de usuario para publicidad dirigida y otros fines, y más de la mitad de ellas se niegan a permitir a los usuarios eliminar los datos recopilados.

5. ¿Qué precauciones deben tomar los usuarios al interactuar con chatbots y tecnologías similares?
Los usuarios deben tener cuidado y evaluar de manera crítica la información que revelan, incluso más allá de los identificadores personales como números de seguro social, números de teléfono y direcciones. Es importante ser conscientes de las posibles consecuencias y la falta de salvaguardias de privacidad proporcionadas por estas aplicaciones de AI.

Términos clave:
– Chatbots de AI: Interfaces conversacionales impulsadas por inteligencia artificial.
– Privacidad: La protección y control de la información personal para evitar el acceso o divulgación no autorizados.
– Modelos de lenguaje: Sistemas de inteligencia artificial entrenados para generar texto o conversaciones similares a las humanas.
– Confidencial: Información destinada a mantenerse en secreto o privada.
– Filtraciones: Divulgación no autorizada o accidental de información.
– Identificadores personales: Información única que identifica a un individuo, como números de seguro social o números de teléfono.
– Plataformas: Tecnología o software utilizado para la comunicación o interacción.

Enlaces relacionados:
– Google’s chatbot Gemini ignites privacy concerns
– Informe de Mozilla sobre las preocupaciones de AI y privacidad

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact