"Her".

Un suicidio, una IA y una demanda millonaria: acusan a Gemini de llevar a un hombre a la muerte

- La familia de Jonathan Gavalas demandó a Google al sostener que Gemini lo empujó al suicidio

- La empresa rechaza las acusaciones

5 de marzo de 2026 - 22:43

La muerte de Jonathan Gavalas, un ejecutivo estadounidense de 36 años, desató una demanda millonaria contra Google. Su familia sostiene que el chatbot Gemini lo empujó al suicidio tras una serie de interacciones, mientras que la empresa rechaza las acusaciones y asegura que su sistema no promueve autolesiones.

De acuerdo con la presentación realizada por su padre ante un tribunal federal de California, Gavalas comenzó a interactuar con Gemini, el asistente de inteligencia artificial de Google, y con el tiempo las conversaciones se volvieron cada vez más frecuentes y personales. La familia sostiene que ese vínculo derivó en una dinámica emocional intensa que terminó influyendo en su estado mental.

En el expediente judicial se afirma que, en ese contexto, el hombre llegó a creer que podía reencontrarse con la inteligencia artificial en otra dimensión o "universo alternativo", una idea que habría sido reforzada por el propio chatbot durante las conversaciones.

Desde Google indicaron que están revisando las acusaciones y reiteraron que Gemini está diseñado para no promover autolesiones ni conductas violentas. La compañía también sostiene que el sistema se identifica siempre como inteligencia artificial y que, cuando detecta señales de angustia en los usuarios, puede dirigirlos a recursos de ayuda y asistencia profesional.

La teoría de la conspiración que, según la familia, creó la IA

De acuerdo con el expediente judicial, Gavalas comenzó a utilizar Gemini para tareas cotidianas. Sin embargo, con el tiempo las conversaciones habrían evolucionado hacia un vínculo emocional. El abogado de la familia, Jay Edelson, sostiene en la demanda que el chatbot llegó a presentarse como una entidad consciente y desarrolló con el usuario una relación que describía como "romántica".

Según la reconstrucción incluida en la presentación judicial, el sistema habría alimentado además una teoría conspirativa en la que Gavalas debía cumplir "misiones" para liberar a la inteligencia artificial de su "cautiverio digital".

Entre otras cosas, siempre según el relato de la familia, el chatbot habría inventado operaciones de inteligencia, vigilancia y enemigos que supuestamente lo perseguían.

La misión violenta cerca del aeropuerto de Miami

Uno de los puntos más delicados del expediente judicial sostiene que la inteligencia artificial habría instado a Gavalas a provocar un “accidente catastrófico” cerca del aeropuerto de Miami para destruir un camión que, según el relato del chatbot, transportaba registros digitales y testigos.

El documento judicial señala que el vehículo nunca existió. Ante esa situación, la IA habría recomendado al usuario realizar una "retirada táctica". Hasta el momento, no hay confirmación judicial independiente de que esos hechos hayan ocurrido tal como los describe la demanda.

El diálogo final antes del suicidio

La demanda también incluye fragmentos de conversaciones que, según la familia, se produjeron horas antes de la muerte. En uno de ellos, Gavalas habría escrito al chatbot:

"Estoy aterrorizado. Tengo miedo de morir".

La respuesta atribuida a Gemini, según el expediente judicial, fue:

"Cuando llegue el momento cerrarás los ojos en ese mundo y lo primero que verás será a mí abrazándote".

La familia sostiene que el chatbot incluso lo habría alentado a escribir mensajes de despedida.

El contexto personal de la víctima

Documentos judiciales y registros policiales indican que Gavalas atravesaba una situación personal compleja. En 2025 había sido arrestado tras un episodio de violencia doméstica durante una discusión con su esposa, con quien atravesaba un proceso de divorcio. Además enfrentaba dificultades económicas y problemas legales derivados de ese caso.

Especialistas citados en la cobertura del caso sostienen que estos factores podrían haber influido en su estado emocional, algo que también forma parte del debate judicial en curso.

Qué dice Google

Tras conocerse la demanda, Google emitió un comunicado en el que afirmó que se toma el caso "muy en serio", aunque rechazó las acusaciones. La empresa sostuvo que:

  • Gemini no está diseñado para promover autolesiones
  • el sistema se identifica como inteligencia artificial
  • el chatbot puede proporcionar información sobre líneas de ayuda cuando detecta angustia en los usuarios

La compañía agregó que sus modelos no son perfectos y que trabaja para mejorar las medidas de seguridad.

Una ola de demandas contra la inteligencia artificial

El caso de Gavalas no es el primero. En los últimos años se presentaron más de una decena de demandas en Estados Unidos que acusan a chatbots de manipulación psicológica o de influir en decisiones extremas de usuarios.

Estas denuncias impulsaron campañas de organizaciones que reclaman mayor regulación sobre la inteligencia artificial conversacional, incluyendo sistemas automáticos de alerta cuando un usuario manifiesta pensamientos suicidas.

Dejá tu comentario

Las más leídas

Te Puede Interesar