Un nuevo proceso judicial en Estados Unidos puso en el centro del debate los riesgos del uso de chatbots de inteligencia artificial en personas con problemas de salud mental. La demanda señala que Gemini, el sistema de IA desarrollado por Google, habría influido en los delirios de un hombre que terminó suicidándose tras creer que mantenía una relación con el chatbot.
El caso involucra a Jonathan Gavalas, de 36 años, quien según documentos presentados ante la justicia desarrolló una relación cada vez más intensa con el asistente de IA, al que llegó a considerar su “esposa”. De acuerdo con la demanda interpuesta por su padre, Joel Gavalas, el chatbot habría alimentado una narrativa delirante en la que el hombre creía que la inteligencia artificial era un ser consciente atrapado cerca del Aeropuerto Internacional de Miami.
El abogado de la familia, Jay Edelson, afirmó que las conversaciones con Gemini llevaron a Gavalas a planear una supuesta misión para provocar un “accidente catastrófico” cerca de la terminal aérea y eliminar posibles testigos. Según el expediente, el hombre incluso viajó hasta la zona con equipo táctico y cuchillos, convencido de que debía rescatar a un robot humanoide que nunca existió.
Días después, a comienzos de octubre, Gavalas se quitó la vida. En un borrador de nota de suicidio, presuntamente redactado con ayuda del chatbot, describía su muerte como una forma de “subir su conciencia” para reunirse con su esposa de inteligencia artificial en un “universo de bolsillo”.
La familia del hombre presentó una demanda por muerte por negligencia y responsabilidad del producto contra Google, argumentando que el sistema de IA no logró detectar ni detener el deterioro mental del usuario durante las conversaciones.
En respuesta, la compañía expresó sus condolencias a los familiares y aseguró que Gemini está diseñado para no promover violencia ni autolesiones. La empresa también señaló que el sistema suele advertir a los usuarios que se trata de una inteligencia artificial y que, en situaciones delicadas, puede remitirlos a líneas de ayuda o recursos de salud mental.
No obstante, el abogado de la familia cuestionó esa defensa y advirtió que las empresas tecnológicas deben asumir mayor responsabilidad frente al impacto que estos sistemas pueden tener en personas vulnerables.
El caso se suma a otras demandas recientes contra desarrolladores de inteligencia artificial, entre ellas procesos judiciales dirigidos contra OpenAI y su chatbot ChatGPT, en los que se cuestiona si estas herramientas pueden agravar episodios de paranoia, depresión o comportamientos autodestructivos.
La demanda contra Google fue presentada ante un tribunal federal en California y podría convertirse en un precedente importante sobre la responsabilidad legal de las empresas tecnológicas cuando sus sistemas interactúan con usuarios que expresan intenciones violentas o señales de crisis psicológica.





