Qué pasa si nuestras conversaciones con los chatbots de IA quedan expuestas
Qué pasa si nuestras conversaciones con los chatbots de IA quedan expuestas
La interacción con chatbots (ChatGPT, Gemini, Copilot, Claude, Perplexity, entre otros) pasó a tratarse como un espacio íntimo y seguro. Se le confían inquietudes emocionales, psicológicas, laborales y médicas. ESET, compañía líder en detección proactiva de amenazas, analiza qué tipo de información se suele compartir con los chatbots de IA, de qué manera podría quedar expuesta y cuál podría ser el impacto real de una filtración. Además, comparten buenas prácticas digitales para seguir utilizando estas herramientas sin ponerse en riesgo.
“No es una novedad que muchas personas usan los chatbots como si fueran espacios privados. Utilizarlos de esa manera se contradice con la naturaleza de este tipo de herramientas ya que las propias plataformas remarcan que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio. Los chatbots no fueron concebidos como un lugar confidencial, más allá que la experiencia conversacional invite a pensarlos así. Si bien las principales plataformas de IA afirman aplicar medidas de seguridad y privacidad (controles de acceso, monitoreo, protección de infraestructura), esto no elimina el riesgo de sufrir brechas de datos, ni es sinónimo de invulnerabilidad”, destaca Martina López, investigadora de Seguridad Informática de ESET Latinoamérica.

Al usarlo como asistente personal o hasta de consejero, muchas veces se comparte mucha información personal y sensible casi sin darse cuenta. A saber:
- Datos personales. Información sensible como nombre, edad, ciudad y país, pero también hábitos cotidianos: dónde trabajas, con quién vives y cómo está compuesta tu familia. Esta información combinada y en las manos equivocadas, puede ser peligrosa.
- Información laboral. Con la necesidad de “Ayúdame a mejorar esto”, muchos usuarios comparten correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas, detalles de clientes, proveedores, conversaciones y tickets. También código fuente y arquitecturas internas.
- Consultas médicas, psicológicas o emocionales. Los chatbots también son entendidos por muchas personas como consejeros o especialistas (práctica que puede ser peligrosa). Se comparten cuestiones vinculadas a la salud, como síntomas, diagnósticos y medicación, y también temas personales como conflictos de pareja, duelos, consultas que no harían en otra red social, o el pedido de un consejo.
- Opiniones, creencias y posturas sensibles. Los chatbots reciben opiniones de los usuarios vinculados a la ideología política o religiosa, posturas sobre empresas, jefes o colegas, y también información que, fuera de contexto, puede generar daño reputacional.
- “El problema no es lo que se comparte, sino esa falsa sensación de intimidad y privacidad, la cual puede romperse muy fácilmente. Meses de conversaciones construyen un perfil, que puede tener un valor muy alto para un ciberatacante”, agrega López de ESET.
Síguenos en Tiktok Soy Positivo Oficial
La información que se comparte con los chatbots de IA puede quedar expuesta y caer en las manos de los cibercriminales por distintas razones. La principal es si alguien ingresa a la cuenta,esto puede suceder si acceden a la contraseña, se cae en un ataque de phishing o si se usa la misma clave en varios servicios. Otra razón son los Chatbots manipulados que pueden ser inducidos con prompts maliciosos por parte del cibercrimen, para obtener información de los usuarios. Por otro lado, el aceptar los términos y condiciones sin leerlos, ya quelos chatbots se recopila y almacena información de uso, como historial y conversaciones, para entrenar su modelo de lenguaje de manera predeterminada. También hay que tener en cuenta alguna brecha de seguridad, un error de la plataforma que deje expuestas las conversaciones e historial de sus usuarios, o si una extensión o app mira más de la cuenta, quizás si se instala un plugin para hacer el chatbot más potente y esa app falla, es vulnerable o es maliciosa, la conversación sale del control del proveedor principal.
Los 5 riesgos destacados a los que se está expuestos por una filtración de chatbots, según ESET, son:
- Robo de identidad / Ingeniería social: Las conversaciones con chatbots aportan contexto humano. Así, el ciberatacante obtiene información sobre hábitos, intereses, rutinas, servicios que se utilizan, problemáticas que los trascienden y hasta el tono que se usa al hablar. Esto permite crear ataques mucho más personalizados, a través de correos o mensajes que parecen escritos por alguien del entorno, estafas que incluyen datos reales de la vida o suplantaciones de identidad mucho más difíciles de detectar.
- Espionaje corporativo: Dado que muchos usuarios usan chatbots como apoyo laboral, es posible que los atacantes obtengan información confidencial como estrategias, documentos, decisiones internas, información sobre clientes, detalles de precios y/o productos. Más allá de los riesgos legales que esa situación puede ocasionar, también puede significar una ventaja competitiva para terceros o el incumplimiento de ciertos compromisos contractuales.
- Daño reputacional: Si quedan expuestas opiniones privadas, dudas profesionales o pensamientos íntimos, las consecuencias pueden ir desde conflictos laborales a la pérdida de credibilidad profesional.
- Exposición de datos sensibles: Este tipo de chatbots también se usan como espacio de consulta íntima, y suelen contener información personal como síntomas, diagnósticos, tratamientos, creencias religiosas o políticas, conflictos personales o familiares. Si eso se filtrara, el impacto para la víctima puede ser devastador: estigmatización, discriminación y hasta vulneración emocional.
- Extorsión: Cuando el ciberatacante cuenta con información privada puede presionar a través de amenazas creíbles y chantajes personalizados. ¿El objetivo? Obtener algún tipo de rédito económico por parte de la víctima.
Una buena manera de reducir el impacto que puede tener la exposición de conversaciones es adoptar buenas prácticas a la hora de interactuar con estos chatbots. El equipo de ESET comparte este checklist:
- No compartir datos personales (cédula, fecha de nacimiento, mail, teléfono)
- Anonimizar casos reales (cambiar nombres, empresas, ubicaciones)
- No adjuntar documentos sensibles, información confidencial o credenciales
- Revisar configuraciones de privacidad (qué se guarda, qué se usa como entrenamiento)
- Proteger la cuenta con contraseña robusta y doble factor de autenticación
- Utilizar cuentas diferentes para trabajo y uso personal
- Pensar: ¿esto lo diría en voz alta en una sala con desconocidos?
“La comodidad de una conversación fluida, natural y sin juicio, hace que bajemos la guardia y compartamos información que jamás publicaríamos en otro espacio digital. Una filtración de conversaciones no expone solo información sino rutinas, vulnerabilidades, decisiones y emociones. Ahora bien, este escenario debe tomarse como una invitación a entender qué son y qué no. No son espacios confidenciales, ni consejeros personales, ni bóvedas de información sensible. Son herramientas poderosas, pero como toda tecnología, requieren criterio, límites y hábitos digitales responsables”, concluye la investigadora de ESET.
Lee también CDAG impulsa una atención integral para atletas en CENAD y CADD
Dejar un comentario