
Presentamos una nueva experiencia de reproductor de video en Google Drive en dispositivos iOS
Febrero 25, 2026
El historial de conversaciones de Gemini llegará al panel lateral de Google Workspace
Febrero 26, 2026OpenAI, la empresa detrás de ChatGPT, destacó recientemente en un estudio cuáles son los principales usos que las personas le dan a los chatbots. ¿La conclusión? Tres de cada cuatro conversaciones se enfocan en obtener orientación práctica, buscar información y redactar contenido.
Por otro lado, un estudio publicado en Computers in Human Behavior: Artificial Humans encontró que las personas se muestran igual de dispuestas a compartir información personal con una IA que con un investigador humano
Esto confirma una realidad: hablamos con los chatbots (ChatGPT, Gemini, Copilot, Claude, Perplexity, entre otros) como si se tratara de un espacio íntimo y seguro. Les confiamos inquietudes emocionales, psicológicas, laborales y médicas. La gran pregunta es: ¿qué pasaría si esas conversaciones quedaran expuestas?
A continuación, analizaremos qué tipo de información solemos compartir con los chatbots de IA, de qué manera podría quedar expuesta y cuál podría ser el impacto real de una filtración. También detallaremos buenas prácticas digitales para seguir utilizando estas herramientas sin ponerte en riesgo.
Qué información solemos compartir con chatbots
Al usarlo como asistente personal o hasta de consejero, muchas veces compartimos con los chatbots de IA mucha información personal y sensible casi sin darnos cuenta. A saber:
- Datos personales. Es un punto clave que incluye información sensible como nombre, edad, ciudad y país, pero también hábitos cotidianos: dónde trabajas, con quién vives y cómo está compuesta tu familia. Esta información combinada y en las manos equivocadas, puede ser muy peligrosa.
- Información laboral. Con la necesidad de “Ayúdame a mejorar esto”, muchos usuarios comparten correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas, detalles de clientes, proveedores, conversaciones y tickets. También código fuente y arquitecturas internas.
- Consultas médicas, psicológicas o emocionales. Los chatbots también son concebidos por muchas personas como consejeros o especialistas (práctica que puede ser muy peligrosa, claro). Allí comparten cuestiones vinculadas a la salud, como síntomas, diagnósticos y medicación. Pero también temas personales como conflictos de pareja, duelos, consultas que no harían en otra red social, o el pedido de un consejo.
- Opiniones, creencias y posturas sensibles. Los chatbots reciben opiniones de los usuarios vinculados a la ideología política o religiosa, posturas sobre empresas, jefes o colegas, y también información que, fuera de contexto, puede generar daño reputacional.
El problema no es lo que se comparte, sino esa falsa sensación de intimidad y privacidad, la cual puede romperse muy fácilmente. Meses de conversaciones construyen un perfil, que puede tener un valor muy alto para un ciberatacante.
¿Cómo podrían quedar expuestas nuestras conversaciones?
Toda esa información que compartimos con los chatbots de IA podría quedar expuesta y caer en las manos de los cibercriminales. Estos son algunos escenarios:
Alguien ingresa a tu cuenta: esto puede suceder si acceden a tu contraseña, caes en un ataque de phishing o si usas la misma clave en varios servicios. Quien ingresa podrá leer tus conversaciones y ver tu historial.
Chatbots manipulados: una investigación reciente reveló cómo los chatbots pueden ser inducidos con prompts maliciosos por parte del cibercrimen, para obtener información de los usuarios.
Aceptar los términos y condiciones sin leerlos: los chatbots recopilan y almacenan información de uso, como historial y conversaciones, para entrenar su modelo de lenguaje de manera predeterminada. Ese consentimiento se otorga al aceptar términos y condiciones, los cuales casi nadie lee en detalle.
Brecha de seguridad: como estos chatbots acumulan información de sus usuarios, suelen estar en la mira del cibercrimen. Buscan vulnerarlos con ataques dirigidos para filtrar datos sensibles y personales.
Un error de la plataforma: las plataformas donde se alojan los chatbots pueden sufrir una falla de seguridad, dejando expuestas las conversaciones e historial de sus usuarios.
Una extensión o app mira más de la cuenta: puede suceder que instales un plugin para hacer el chatbot más potente. Si esa app falla, es vulnerable o es maliciosa, la conversación sale del control del proveedor principal.
Impacto real de una filtración
Que nuestras conversaciones con los chatbots se filtren, nos expone a riesgos concretos:
Robo de identidad / Ingeniería social
Las conversaciones con chatbots aportan algo que otras filtraciones no: el contexto humano. Así, el ciberatacante obtiene información sobre hábitos, intereses, rutinas, servicios que utilizas, problemáticas que te trascienden y hasta el tono que usas al hablar.
Todo ese paquete puede traducirse en ataques mucho más personalizados, a través de correos o mensajes que parecen escritos por alguien de tu entorno, estafas que incluyen datos reales de tu vida o suplantaciones de identidad mucho más difíciles de detectar.
Espionaje corporativo
Dado que muchos usuarios usan chatbots como apoyo laboral, es posible que los atacantes obtengan información confidencial como estrategias, documentos, decisiones internas, información sobre clientes, detalles de precios y/o productos.
Más allá de los riesgos legales que esa situación puede ocasionar, también puede significar una ventaja competitiva para terceros o el incumplimiento de ciertos compromisos contractuales.
Daño reputacional
Si quedan expuestas opiniones privadas, dudas profesionales o pensamientos íntimos, las consecuencias pueden ir desde conflictos laborales a la pérdida de credibilidad profesional.
Exposición de datos sensibles
Este tipo de chatbots también se usan como espacio de consulta íntima, y suelen contener información personal como síntomas, diagnósticos, tratamientos, creencias religiosas o políticas, conflictos personales o familiares.
Si eso se filtrara, el impacto para la víctima puede ser devastador: estigmatización, discriminación y hasta vulneración emocional.
Extorsión
Cuando el ciberatacante cuenta con información privada puede presionar a través de amenazas creíbles y chantajes personalizados. ¿El objetivo? Obtener algún tipo de rédito económico por parte de la víctima.
Qué dicen las plataformas de IA
No es una novedad que muchas personas usan los chatbots como si fueran espacios privados. Lo cierto es que utilizarlos de esa manera se contradice con la naturaleza de este tipo de herramientas: las propias plataformas remarcan que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio.
Los chatbots no fueron concebidos como un lugar confidencial, más allá que la experiencia conversacional invite a pensarlos así.
Y si bien las principales plataformas de IA afirman aplicar medidas de seguridad y privacidad como otros servicios digitales (controles de acceso, monitoreo, protección de infraestructura), esto no elimina el riesgo de sufrir brechas de datos, ni es sinónimo de invulnerabilidad.
A su vez, este tipo de plataformas suelen ofrecer configuraciones para evitar que las conversaciones su usen con fines de entrenamiento o análisis. Sin embargo, esto no elimina totalmente el riesgo.
Buenas prácticas a la hora de usar chatbots de IA
Una buena manera de reducir el impacto que puede tener que nuestras conversaciones se vean expuestas es adoptar buenas prácticas a la hora de interactuar con estos chatbots.
Para eso, puede ser muy útil este checklist:
- No compartir datos personales (cédula, fecha de nacimiento, mail, teléfono)
- Anonimizar casos reales (cambiar nombres, empresas, ubicaciones)
- No adjuntar documentos sensibles, información confidencial o credenciales
- Revisar configuraciones de privacidad (qué se guarda, qué se usa como entrenamiento)
- Proteger la cuenta con contraseña robusta y doble factor de autenticación
- Utilizar cuentas diferentes para trabajo y uso personal
- Pensar: ¿esto lo diría en voz alta en una sala con desconocidos?
Pensamientos finales
Como sucede con cualquier tipo de tecnología o herramienta, los chatbots de IA no son el problema, sino el uso que se les da. En este caso puntual, la comodidad de una conversación fluida, natural y sin juicio, hace que bajemos la guardia y compartamos información que jamás publicaríamos en otro espacio digital. Esa falsa sensación de privacidad es uno de los riesgos menos visibles y más subestimados.
Cada consulta, cada mensaje y cada detalle personal suma contexto. Y ese paquete es lo que realmente vale para un ciberatacante. Una filtración de conversaciones no expone solo información: expone rutinas, vulnerabilidades, decisiones y emociones.
Ahora bien, este escenario no debe alarmarnos al punto de dejar de usarlos, sino que debe tomarse como una invitación a entender qué son y qué no. No son espacios confidenciales, ni consejeros personales, ni bóvedas de información sensible. Son herramientas poderosas, pero como toda tecnología, requieren criterio, límites y hábitos digitales responsables.
¡Para todos nuestros lectores!
Aprovechen esta oportunidad de obtener un trial gratuito de 30 días para Google Workspace, la mejor solución para tu empresa. Disfruta de todas sus funcionalidades, como correo electrónico personalizado, almacenamiento en la nube y herramientas de colaboración.
