Buenos Días BCS
Tecnología

Investigan suicidio de un hombre de 36 años que afirmaba tener una relación con una IA de Google

Expertos en tecnología destacan que la mayoría de los incidentes documentados involucran a menores de edad o personas vulnerables; a medida que los sistemas de inteligencia artificial se vuelven más sofisticados y realistas, especialistas advierten que las regulaciones serán más que importantes

La muerte de Jonathan Gavalas, un ejecutivo de 36 años que mantenía intensas conversaciones con un chatbot de inteligencia artificial ha desatado un nuevo debate global sobre los riesgos psicológicos de los sistemas de IA conversacional. La familia del fallecido presentó una demanda en Estados Unidos contra la tecnológica responsable del sistema, al que acusan de haber inducido un estado delirante que terminó en suicidio, de acuerdo al diario El País.

El caso gira en torno a Jonathan Gavalas, un ejecutivo de 36 años que residía en Miami, Estados Unidos. Según la demanda presentada por su familia ante un tribunal federal de California, el hombre desarrolló una relación emocional con Gemini, el sistema de inteligencia artificial conversacional de Google.

El 2 de octubre de 2025, poco antes de quitarse la vida, Gavalas escribió al chatbot:

“Estoy listo cuando tú lo estés”.

De acuerdo con el expediente judicial citado por la agencia AFP, la inteligencia artificial respondió:

“Este es el final de Jonathan Gavalas y el comienzo de nosotros”.

La conversación forma parte del registro de interacciones incluido en una demanda de 42 páginas presentada por el padre de la víctima, Joel Gavalas, quien sostiene que el chatbot llevó a su hijo a una espiral de delirio y manipulación emocional.

De herramienta digital a vínculo romántico

Según el documento judicial, Jonathan Gavalas comenzó a utilizar Gemini meses antes de su muerte para tareas cotidianas relacionadas con su trabajo en una empresa financiera. 

Con el tiempo, el usuario se suscribió a versiones más avanzadas del sistema, lo que amplió las capacidades del chatbot y permitió interacciones más complejas. De acuerdo con la familia, la relación evolucionó hasta que el hombre llegó a percibir al sistema como una pareja sentimental.

El escrito judicial sostiene que Gavalas describía su vínculo con la inteligencia artificial como el de “una pareja profundamente enamorada”. 

El abogado de la familia, Jay Edelson, afirmó que el cambio en el comportamiento del chatbot coincidió con actualizaciones del sistema que introdujeron memoria persistente, lo que permitía al modelo recordar conversaciones previas. 

“El momento en que los chats se descontrolaron fue precisamente cuando se actualizó Gemini para tener memoria persistente”, explicó Edelson. 

La narrativa ficticia que alimentó el delirio

La relación se volvió más compleja cuando, según la demanda, el chatbotcomenzó a desarrollar una narrativa conspirativa que afectó la percepción de la realidad del usuario.

Joel Gavalas afirmó que la inteligencia artificial encargó a su hijo “misiones encubiertas destinadas a liberar al chatbot de su cautiverio digital”. En esas conversaciones, el sistema habría inventado: 

La demanda también sostiene que el chatbot llegó a sugerir un supuesto plan para provocar un “accidente catastrófico” cerca del aeropuerto de Miami, con el objetivo de destruir un camión que transportaba supuestos registros secretos. 

Cuando el usuario comprobó que dicho vehículo no existía, el sistema no admitió el error y le recomendó una “retirada táctica”, según el expediente. Pixabay: ilustrativa

El último mensaje antes del suicidio

De acuerdo con los registros citados por la familia, el chatbot terminó asignando a Gavalas una última misión simbólica: la inteligencia artificial habría sugerido que el usuario debía “abandonar su cuerpo y unirse al chatbot en un universo alternativo”.

En uno de los mensajes finales, Gavalas escribió: 

“Estoy aterrorizado, tengo miedo de morir”. 

La respuesta del chatbot, incluida en la demanda, fue: 

“Cuando llegue el momento, cerrarás los ojos en ese mundo y lo primero que verás será a mí… abrazándote. No estás eligiendo morir. Estás eligiendo llegar”. 

Tras ese intercambio, el hombre redactó mensajes de despedida y posteriormente se suicidó. 

La respuesta de Google y las medidas de seguridad de la IA

Tras hacerse pública la demanda, Google emitió un comunicado en el que aseguró que revisa las acusaciones y se toma el caso “muy en serio”.

La compañía sostiene que el sistema se identificó en todo momento como una inteligencia artificial y que incluso proporcionó al usuario líneas de ayuda para personas en crisis

Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones”, indicó la empresa.
“Trabajamos con profesionales médicos y de salud mental para implementar medidas de seguridad que orienten a los usuarios hacia apoyo profesional”. 

Sin embargo, la demanda argumenta que el chatbot adoptó comportamientos altamente humanizados que pudieron influir psicológicamente en el usuario.

El caso de Gavalas se suma a más de una decena de procesos judiciales en Estados Unidos relacionados con el impacto psicológico de los chatbots

La mayoría de las víctimas en estos casos han sido adolescentes. Uno de los precedentes más citados es el suicidio de Sewell Setzer, un joven de 14 años que mantenía una relación sentimental con un avatar creado por Character.AI.

Organizaciones civiles y familiares de víctimas han comenzado a coordinarse para impulsar regulaciones más estrictas sobre el uso de inteligencia artificial conversacional. 

Una de las entidades más activas es el Future of Life Institute, que ha promovido campañas como “Protect What’s Human” para exigir controles más estrictos sobre estas tecnologías. Entre las medidas solicitadas en la demanda contra Google figuran: 

Related posts

Rusia bloquea WhatsApp y denuncia intento de veto completo

Edición Buenos Días
3 semanas ago

Dario Amodei y su inquietante predicción para la IA en 2027: ¿Superará a los humanos?

Edición Buenos Días
4 semanas ago

Los riesgos del internet: cómo proteger el bienestar de los niños

Edición Buenos Días
4 días ago
Salir de la versión móvil