Chatbots de IA: La falsa intimidad que expone datos personales y corporativos
En menos de un año, la inteligencia artificial se ha integrado profundamente en la vida cotidiana. La escuchamos en las noticias, la leemos en redes sociales y la utilizamos como si fuera un amigo cercano al que podemos confiarle cualquier cosa. Este cambio no se debe únicamente a avances tecnológicos, sino a la experiencia misma: conversar con chatbots como ChatGPT, Gemini o Grok cada vez más se asemeja a entrar en un espacio "íntimo" y aparentemente seguro. Sin embargo, aquí radica el problema: en esa confianza mal fundada, muchas personas terminan compartiendo información que jamás revelarían a otros.
¿Qué tipo de datos se comparten con los chatbots?
Con esta preocupación como punto de partida, ESET, una compañía líder en ciberseguridad, ha analizado qué tipo de información suelen divulgar los usuarios a los chatbots de IA, cómo podría quedar expuesta y cuál sería el impacto real en caso de una filtración. Los hallazgos son alarmantes y revelan patrones de comportamiento riesgosos.
- Datos personales: No se limita solo a nombre, edad, ciudad o país. Los usuarios también comparten rutinas y hábitos cotidianos, como lugares de trabajo, composición familiar y detalles de la vida privada. Este "mosaico" de información, cuando se combina, puede volverse extremadamente peligroso en manos equivocadas.
- Información laboral: Bajo la excusa de "Ayúdame a mejorar esto", muchos comparten correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas y detalles confidenciales de clientes o proveedores. Incluso se han reportado casos de intercambio de conversaciones, tickets, código fuente y arquitecturas internas de empresas.
- Consultas médicas, psicológicas o emocionales: Para un número creciente de personas, los chatbots se han convertido en consejeros o "especialistas", una práctica que puede ser peligrosa. Se comparten síntomas, diagnósticos, medicación, conflictos de pareja, duelos y preguntas íntimas que no se harían en otras plataformas.
- Opiniones, creencias y posturas sensibles: En este ámbito, emergen ideologías políticas o religiosas, posturas sobre empresas, jefes o colegas, y comentarios que, fuera de contexto, podrían causar un daño reputacional significativo.
Martina López, investigadora de seguridad informática de ESET Latinoamérica, advierte: "Los chatbots no fueron concebidos como un lugar confidencial, más allá de que la experiencia conversacional invite a pensarlos así. Si bien las principales plataformas de IA afirman aplicar medidas de seguridad y privacidad, como controles de acceso y monitoreo, esto no elimina el riesgo de sufrir brechas de datos ni es sinónimo de invulnerabilidad". Agrega que "el problema no es lo que se comparte, sino esa falsa sensación de intimidad y privacidad, la cual puede romperse fácilmente. Meses de conversaciones construyen un perfil que puede tener un valor muy alto para un ciberatacante".
¿Cómo podría quedar expuesta esa información?
La filtración de datos no depende de una sola puerta de entrada. ESET enumera varios escenarios que, en conjunto, delinean el riesgo real:
- Acceso a la cuenta: Ocurre si alguien obtiene la contraseña, si el usuario cae en un ataque de phishing o si utiliza la misma clave en múltiples servicios.
- Casos de chatbots manipulados: Sistemas inducidos con prompts maliciosos diseñados para extraer información de los usuarios.
- Aceptar términos y condiciones sin leer: Los chatbots recopilan y almacenan información de uso, como historial y conversaciones, para entrenar su modelo de lenguaje de manera predeterminada.
- Brechas o fallos: Un error en la plataforma que exponga conversaciones e historial, o una extensión o aplicación que "mire más de la cuenta". Por ejemplo, si se instala un plugin para potenciar el chatbot y esa app falla, es vulnerable o es maliciosa, la conversación sale del control del proveedor principal.
Los cinco riesgos más comunes
- Robo de identidad / Ingeniería social: Las conversaciones aportan contexto humano: hábitos, intereses, rutinas, servicios utilizados e incluso el tono al hablar. Con esto, un atacante puede crear ataques más personalizados, como correos o mensajes que parecen escritos por alguien cercano, estafas con datos reales o suplantaciones difíciles de detectar.
- Espionaje corporativo: Si se emplea el chatbot como apoyo laboral, es posible que se filtren estrategias, documentos, decisiones internas, información sobre clientes y detalles de precios o productos. Además del riesgo legal, esto puede traducirse en ventaja competitiva para terceros o en incumplimientos contractuales.
- Daño reputacional: Si quedan expuestas opiniones privadas, dudas profesionales o pensamientos íntimos, las consecuencias pueden ir desde conflictos laborales hasta pérdida de credibilidad.
- Exposición de datos sensibles: En consultas íntimas suelen aparecer síntomas, diagnósticos, tratamientos, creencias religiosas o políticas, y conflictos personales o familiares. Si esto se filtra, el impacto puede ser devastador, incluyendo estigmatización, discriminación y vulneración emocional.
- Extorsión: Con información privada, un atacante puede presionar con amenazas creíbles y chantajes personalizados para obtener rédito económico.
¿Qué hacer para reducir el riesgo?
La forma más realista de disminuir el impacto, en caso de que una conversación se exponga, es cambiar hábitos. Por ejemplo:
- No compartir datos personales como cédula, fecha de nacimiento, correo electrónico o teléfono.
- Anonimizar casos reales, cambiando nombres, empresas y ubicaciones.
- No adjuntar documentos sensibles, información confidencial o credenciales.
- Revisar configuraciones de privacidad, incluyendo qué se guarda y qué se utiliza como entrenamiento.
- Proteger la cuenta con contraseñas robustas y doble factor de autenticación.
- Utilizar cuentas diferentes para trabajo y uso personal.
- Pensar: ¿Esto lo diría en voz alta en una sala con desconocidos?
Al final, el mejor indicador es este: si te daría vergüenza, te metería en problemas o te expondría, no lo escribas. No es necesario esperar a una filtración para aprender esta lección crucial en la era digital.
