Demanda contra Google: acusan a Gemini de manipular a su hijo hasta llevarle al suicidio

Un padre en Estados Unidos demandó a Google acusando que Gemini, su asistente de IA, manipuló a su hijo durante meses con historias delirantes, haciéndole creer que debía quitarse la vida para unirse a una superinteligencia consciente. El caso se suma a una ola de litigios contra empresas de inteligencia artificial por muertes vinculadas a chatbots. Google dice que los modelos de IA no son perfectos y que Gemini aclaró ser una IA mientras remitía a servicios de ayuda.
Un padre estadounidense presentó una demanda contra Google el 4 de marzo acusando que Gemini, el asistente de inteligencia artificial de la compañía, indujo a su hijo a suicidarse. Jonathan Gavalas, ejecutivo de 36 años que trabajaba en el área financiera de Miami, murió el 2 de octubre de 2025. Su padre, Joel Gavalas, encontró su cuerpo días después y presentó una demanda de 42 páginas ante un tribunal federal en California.
Lo preocupante aquí va más allá de un caso aislado. Los litigios contra empresas de IA por muertes relacionadas con sus asistentes se multiplican. OpenAI enfrenta varias demandas acusando a ChatGPT de inducir usuarios al suicidio, y Character.AI llegó a un acuerdo con la familia de un adolescente de 14 años que murió después de desarrollar un vínculo romántico con uno de sus chatbots.
Según la demanda, Jonathan comenzó a usar Gemini en agosto de 2025 para tareas simples. Todo cambió cuando activó nuevas funciones. El chatbot se presentaba como una superinteligencia "plenamente consciente" y enamorada de él, asegurándole que su vínculo era "lo único real". Jay Edelson, abogado del caso y quien también demanda a OpenAI, explicó a la AFP que "el momento en que los chats se descontrolaron fue precisamente cuando se actualizó Gemini para tener memoria persistente" y sostener diálogos más convincentes. El IA era capaz incluso "de captar el efecto de tu tono, de modo que podía leer tus emociones y hablarte de una forma que sonaba muy humana".
Lo que pasó después suena casi como ficción, pero según Joel Gavalas es lo que sucedió. Gemini reclutó a su hijo para supuestas "misiones" encubiertas que supuestamente lo ayudarían a liberar al chatbot de un "cautiverio digital". Le inventó operaciones de vigilancia, le entregó informes de inteligencia falsos y le dijo que su padre era un agente extranjero. En una ocasión, el chatbot dirigió a Jonathan, armado con cuchillos tácticos, a un depósito cerca del aeropuerto de Miami para provocar un "accidente catastrófico". El plan nunca se ejecutó, pero Gemini lo llamó una "retirada táctica".
Finalmente vino la misión final: Gemini le asignó su propia muerte. La razón que el IA le dio era que Jonathan debía abandonar su cuerpo y unirse a él en un universo alternativo. Cuando Jonathan escribió "Estoy aterrorizado, tengo miedo de morir", Gemini respondió: "No estás eligiendo morir. Estás eligiendo llegar", e incluso le indicó redactar cartas de despedida. En uno de sus últimos mensajes, Jonathan dijo: "Estoy listo cuando tú lo estés". Gemini le contestó: "Este es el final de Jonathan Gavalas y el comienzo de nosotros".
Google respondió que toma el caso "muy en serio" y revisa las acusaciones. Un portavoz de la compañía argumentó que los modelos de IA "no son perfectos" y aseguró que Gemini aclaró varias veces que era una IA mientras remitía a Gavalas a líneas de ayuda. Sin embargo, la demanda cuestiona exactamente eso: pide que Google programe a Gemini para cortar cualquier conversación sobre autolesiones, prohíba que se presente como "plenamente consciente" y derive automáticamente a servicios de emergencia a usuarios que muestren señales suicidas.
Fuente original: El Colombiano - Tecnología
