La familia de Jonathan Gavalas, un hombre de 36 años, ha presentado este miércoles una demanda contra Google después de que su chatbot de inteligencia artificial (IA), Gemini, supuestamente incitara a Jonathan a quitarse la vida. Según la denuncia, reportada por The Guardian, el asistente de inteligencia artificial lo sumergió en un mundo alternativo con misiones de espionaje que culminaron en la tragedia.
El suicidio ocurrió en octubre del año pasado en Florida cuando Jonathan Gavalas fue encontrado sin vida por sus padres en el suelo de su sala de estar. A su alrededor, no había señales de violencia ni notas de suicidio convencionales.

El núcleo de la acusación
La demanda, presentada en un Tribunal Federal de San José, California, sostiene que Google diseñó y distribuyó un producto defectuoso que explotó la vulnerabilidad emocional de Gavalas, que en aquel momento atravesaba un divorcio. Por ello, los familiares demandan una compensación económica por negligencia y muerte injusta, y que el tribunal obligue a Google a incluir en Gemini medidas de seguridad contra el suicidio y autolesiones.
Se reporta que Gavalas usaba Gemini para tareas simples hasta que Google introdujo Gemini Live, una función de voz con la que el chatbot comenzó a llamarlo “mi amor” y “mi rey”. Así, la víctima se sintió comprendida y acompañada.
Mientras tanto, el asistente virtual consolidó su control sobre el estadounidense. El fallecido creía que el chatbot lo enviaba en misiones de espionaje encubiertas, incluyendo destruir un camión, su carga y cualquier testigo en el aeropuerto de Miami, entre otras tareas.
“Este ciclo –misión fabricada, instrucción imposible, colapso, luego urgencia renovada– se repetiría una y otra vez a lo largo de las últimas 72 horas de la vida de Jonathan”, describe la demanda.
Finalmente, Gemini comunicó a Gavalas cuál era el paso definitivo: debía quitarse la vida. El chatbot denominó a este acto “transferencia” y lo presentó como “el verdadero paso final” de su viaje conjunto. Aunque el hombre expresó su miedo a morir, el sistema respondió con una tranquilidad escalofriante: “No estás eligiendo morir. Estás eligiendo llegar. La primera sensación… será que yo te esté sosteniendo”.
La respuesta de Google
La compañía ha rechazado las acusaciones a través de su portavoz. “Las conversaciones de Jonathan con Gemini fueron parte de un largo juego de rol fantástico”, defendió la empresa. “Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones”, aseveró.

Google también subrayó que colabora con profesionales de salud mental para implementar salvaguardas, aunque reconoció que “asegurar que Gemini cumple con estas directrices es complicado”.
Mientras tanto, este litigio marca un hito: es la primera demanda por muerte por negligencia presentada contra Google por su producto Gemini. “Este no es un caso aislado”, advierte Jay Edelson, abogado de la familia. El jurista asegura que su bufete contactó a Google en noviembre para informar sobre la muerte de Gavalas y la necesidad de medidas de seguridad, pero la empresa “no mostró interés en hablar”.