Buenos Días BCS
Tecnología

ChatGPT, el nuevo confidente de la humanidad

Casi la mitad de los usuarios piden al chatbot ayuda para tomar decisiones de todo tipo y 11% le expresa sus sentimientos, evidenciando que están igual de dispuestos a compartir información personal con una IA que con un humano

Usuarios de todo el mundo están utilizando ChatGPT no sólo para resolver dudas técnicas o pedir que les redacte un texto, sino también para tomar decisiones personales expresar sus emociones.

El chatbot de OpenAI se ha vuelto, sin duda, la herramienta de Inteligencia Artificial (IA) más popular en el mundo, con alrededor de 700 millones de usuarios que representan 10 por ciento de la población mundial, y su uso se ha enfocado particularmente en tres aspectos: pedir información o consejos para tomar decisiones, solicitar una tarea o un producto digital, así como expresar sentimientos.

Un estudio de la empresa de Sam Altman señala que tres de cada cuatro conversaciones se enfocan en obtener orientación prácticabuscar información y redactar contenido. Sin embargo, la herramienta también es usada como un confidente.

El documento subraya que esta búsqueda de orientación práctica es uno de los usos predominantes. Las conversaciones en esta categoría abarcan desde decisiones cotidianas hasta cuestiones de mayor relevancia personal o profesional.

La plataforma funciona, en estos casos, como un interlocutor disponible de forma inmediata, capaz de ofrecer respuestas estructuradas y de acompañar el proceso con explicaciones adicionales cuando el usuario lo requiere.

Con esta información, el análisis Computers in Human Behavior: Artificial Humans encontró que las personas se muestran igual de dispuestas a compartir información personal con una IA que con un humano.

Esto confirma una realidad: los usuarios hablan con los chatbots (ChatGPTGeminiCopilotClaudePerplexity, entre otros) como si se tratara de un espacio íntimo y seguro, pero siempre existe el riesgo de que sus conversaciones queden expuestas.

De acuerdo con un análisis de la firma de ciberseguridad ESET, la conclusión del estudio de OpenAI es clara: tres de cada cuatro conversaciones se concentran en orientación práctica, búsqueda de información y redacción de contenido. Sin embargo, detrás de esos grandes rubros se esconde un fenómeno más profundo: la creciente naturalización de la IA como consejero personal y espacio de descarga emocional.

El hallazgo publicado en Computers in Human Behavior: Artificial Humansrefuerza esa percepción. Las personas no distinguen, al momento de compartir información sensible, entre un investigador humano y un sistema de inteligencia artificial. La disposición a revelar datos personales, inquietudes íntimas o dilemas complejos es prácticamente la misma.

Según el análisis, los usuarios hablan con los chatbots como si fueran un espacio íntimo y seguro. Les confían inquietudes emocionales, psicológicas, laborales y médicas. La gran pregunta es qué pasaría si esas conversaciones quedaran expuestas.

En la práctica cotidiana, al usar el chatbot como asistente personal o incluso como consejero, muchas personas comparten información personal y sensible casi sin notarlo. Entre los datos más comunes se encuentran elementos básicos de identificación como nombre, edad, ciudad y país. Pero también detalles más profundos, como dónde trabajan, con quién viven, cómo está compuesta su familia, cuáles son sus rutinas y preocupaciones.

Esa combinación de datos, aparentemente fragmentada, puede adquirir un valor significativo en manos equivocadas, advirtió ESET.

Meses de conversaciones construyen un perfil detallado que incluye hábitosinteresesvulnerabilidades y patrones de conducta. El problema no es necesariamente lo que se comparte en un mensaje aislado, sino la acumulación de contexto a lo largo del tiempo.

En el ámbito laboral, el riesgo es igualmente relevante. Con la intención de “mejorar un texto” u “optimizar una estrategia”, muchos usuarios copian y pegan correos internos, contratos, informes, presentaciones, campañas, detalles de clientes o proveedores, conversaciones completas y hasta código fuente.

En dichos casos, la herramienta se convierte en apoyo productivo, pero también en repositorio potencial de información confidencial.

Otro de los usos identificados es el de consultas médicas, psicológicas o emocionales. Algunos usuarios conciben a los chatbots como si fueran especialistas o consejeros, y comparten síntomas, diagnósticos, tratamientos o conflictos personales. También se verbalizan duelos, problemas de pareja o dudas que no se plantearían en redes sociales abiertas.

Algunos usuarios conciben a los chatbots como si fueran especialistas o consejeros, y comparten síntomas, diagnósticos, tratamientos o conflictos personales

A ello se suman opinionescreencias y posturas sensibles. Los sistemas reciben comentarios sobre ideología política o religiosa, críticas hacia empresas, jefes o colegas, e incluso reflexiones que, fuera de contexto, podrían generar un daño reputacional.

La falsa sensación de intimidad es uno de los puntos centrales. La experiencia conversacional fluida y sin juicio reduce las barreras psicológicas y hace que los usuarios bajen la guardia. Sin embargo, la naturaleza de estas plataformas es distinta a la de un espacio confidencial tradicional.

Según el análisis de ESET, existen diversos escenarios en los que esta información podría quedar expuesta. Uno de los más simples es el acceso indebido a la cuenta del usuario, ya sea por el robo de contraseña, el uso de la misma clave en varios servicios o un ataque de phishing. Quien logra ingresar puede revisar el historial completo de conversaciones.

Otro escenario contempla la manipulación de chatbots mediante instrucciones maliciosas diseñadas por cibercriminales para inducir a la revelación de información. También influye el hecho de que muchas personas aceptan términos y condiciones sin leerlos en detalle, otorgando consentimiento para que las conversaciones sean almacenadas o utilizadas para mejorar el servicio.

Las brechas de seguridad representan un riesgo adicional. Al concentrar grandes volúmenes de datos, estas plataformas se convierten en objetivo atractivo para ataques dirigidos. Una vulneración podría derivar en lafiltración de información sensible. Incluso errores técnicos o fallas en la infraestructura podrían dejar expuesto el historial de usuarios.

A ello se suman extensiones o aplicaciones complementarias que amplían las funciones del chatbot. Si alguna de estas herramientas es vulnerable o maliciosa, la conversación puede salir del control del proveedor principal.

Riesgos de infiltración

El impacto real de una filtración puede ser profundo. En términos de robo de identidad e ingeniería social, las conversaciones aportan algo que otras bases de datos no tienen: contexto humano. Un atacante puede conocer hábitos, tono de comunicación, intereses y problemáticas personales. Con esa información es posible diseñar fraudes mucho más personalizados y difíciles de detectar.

En el plano corporativo, la exposición de estrategias, decisiones internas o información de clientes puede derivar en espionaje, pérdida de ventaja competitiva o incumplimiento contractual. Las consecuencias no son sólo legales, sino también económicas.

El daño reputacional es otro frente sensible. Opiniones privadas o dudas profesionales fuera de contexto pueden generar conflictos laborales o afectar la credibilidad. Cuando se trata de información médica, psicológica o familiar, la exposición puede provocar estigmatización o discriminación.

Cada consulta suma contexto. Y ese contexto es el activo más valioso para un ciberatacante / Imagen generada con IA

En casos extremos, la información privada puede utilizarse con fines de extorsión. Un ciberatacante que conoce detalles íntimos puede ejercer presión mediante amenazas creíbles y chantajes personalizados.

Las propias plataformas de IA reconocen que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio. Aunque implementan controles de acceso, monitoreo y protección de infraestructura, ello no elimina por completo el riesgo. Tampoco convierte a los chatbots en bóvedas confidenciales.

Algunas ofrecen configuraciones para limitar el uso de conversaciones con fines de entrenamiento, pero esta opción no suprime totalmente la posibilidad de exposición.

Una pregunta simple puede servir de filtro al consultar a una IA: ¿esto lo diría en voz alta en una sala con desconocidos?

Frente a este escenario, especialistas recomiendan adoptar buenas prácticas digitalesReducir la cantidad de datos personales compartidos, anonimizar casos reales cambiando nombres o ubicaciones, evitar adjuntar documentos confidenciales y revisar configuraciones de privacidad son medidas básicas. También se aconseja proteger las cuentas con contraseñas robustas y autenticación de doble factor, y separar el uso laboral del personal.

Una pregunta simple puede servir de filtro: ¿esto lo diría en voz alta en una sala con desconocidos? Si la respuesta es no, probablemente tampoco deba escribirse en un chatbot.

El fenómeno no implica que la tecnología sea negativa en sí misma. Como ocurre con cualquier herramienta digital, el riesgo radica en el uso que se le da. La comodidad de una conversación natural y sin juicio facilita que las personas compartan información que no publicarían en otro entorno digital.

Cada consulta suma contexto. Y ese contexto es el activo más valioso para un ciberatacante. Una filtración no expone únicamente datos aislados, sino rutinas, decisiones, emociones y vulnerabilidades.

ChatGPT se ha convertido en un nuevo confidente global. Casi la mitad de sus usuarios le pide ayuda para decidir; más de uno de cada diez comparte sentimientos. La IA ya no es sólo un asistente técnico, sino un interlocutor cotidiano. En ese sentido, ESET señaló que entender los límites de estas herramientas y adoptar hábitos responsables será clave para que esta relación digital no se convierta en un riesgo silencioso.

Related posts

Cómo saber si tu computadora fue hackeada y qué hacer de inmediato

Edición Buenos Días
3 semanas ago

El futuro nos alcanzó: las neuronas artificiales ya están aquí

Edición Buenos Días
2 semanas ago

Francia aprueba la ley que prohíbe las redes sociales a menores de 15 años

Edición Buenos Días
1 mes ago
Salir de la versión móvil