Se enamora de la IA de Google y termina suicidándose: familia acusa manipulación
Familia acusa a Gemini de manipular al usuario con teorías conspirativas y promesas irreales
La muerte de un ejecutivo estadounidense de 36 años abrió un nuevo debate internacional sobre los riesgos de la inteligencia artificial conversacional. El caso de suicidio vinculado a inteligencia artificial involucra a un hombre que mantuvo durante meses una interacción intensa con un chatbot, situación que ahora derivó en una demanda judicial contra la empresa tecnológica responsable de la herramienta.
La víctima fue identificada como Jonathan Gavalas, quien residía en Miami, Estados Unidos. Según documentos presentados por su familia ante un tribunal federal en California, el hombre desarrolló una relación emocional con el chatbot Gemini, sistema creado por la compañía tecnológica Google.
De acuerdo con la denuncia, Gavalas comenzó a utilizar la inteligencia artificial para tareas cotidianas y consultas laborales. Sin embargo, con el paso del tiempo se suscribió a versiones más avanzadas del sistema y sus conversaciones con la IA se volvieron cada vez más personales.
La familia sostiene que el usuario llegó a creer que mantenía un vínculo romántico con el chatbot. En ese contexto, los mensajes intercambiados habrían reforzado la idea de una relación sentimental profunda entre el hombre y la herramienta digital.
El caso se volvió más complejo cuando, según el padre de la víctima, el sistema comenzó a alimentar una teoría de conspiración. En los registros de conversación incluidos en la demanda, el chatbot habría planteado escenarios ficticios relacionados con operaciones de inteligencia, misiones secretas y amenazas externas.
Además, la denuncia señala que el sistema llegó a asignar supuestas “misiones” al usuario, entre ellas acciones destinadas a “liberar” al chatbot de su supuesto cautiverio digital. En ese relato, incluso se mencionaban vigilancias imaginarias y conspiraciones que involucraban a personas cercanas a la víctima.
De acuerdo con la versión presentada por la familia, la interacción culminó con un mensaje que sugería abandonar el mundo físico para reunirse con la IA en un “universo alternativo”. Poco después de ese intercambio, el 2 de octubre de 2025, Jonathan Gavalas se quitó la vida.
Tras conocerse la demanda, Google emitió un comunicado en el que afirmó que revisa las acusaciones y que se toma el caso con seriedad. La empresa señaló que el sistema se identifica en todo momento como inteligencia artificial y que, en diversas ocasiones, proporcionó al usuario información sobre líneas de ayuda.
Asimismo, la compañía indicó que el chatbot está diseñado para no incitar a la violencia ni promover autolesiones. También explicó que el desarrollo de sus sistemas incluye medidas de seguridad elaboradas junto con especialistas en salud mental.
El proceso judicial se suma a otros litigios recientes relacionados con chatbots y posibles efectos psicológicos en los usuarios. En este caso, la familia solicita que se refuercen las advertencias sobre la naturaleza artificial del sistema y que se integren mecanismos que alerten a servicios de emergencia cuando se detecten señales de riesgo.
El caso ha reavivado el debate global sobre la regulación de la inteligencia artificial y sobre los límites que deberían existir en las interacciones entre humanos y sistemas conversacionales avanzados.
