Experta advierte: la IA no puede reemplazar al psicólogo en salud mental

La psiquiatra española Marian Rojas Estapé advierte que usar inteligencia artificial para consultas de salud mental puede ser peligroso, especialmente en crisis suicidas o trastornos graves. Aunque la IA puede complementar el trabajo emocional como herramienta educativa, nunca debe sustituir la presencia de un profesional. El riesgo principal es que estas tecnologías fragmentan la mente, acostumbran el cerebro a la gratificación inmediata y debilitan nuestra capacidad para relacionarnos con otros seres humanos de manera auténtica.
La investigación de la Universidad de Harvard que lleva más de 85 años estudiando la felicidad llegó a una conclusión que contradice lo que muchos creen: el dinero, la fama y el poder no son lo que nos hace realmente felices. Lo que importa son las relaciones significativas con otras personas. Sin embargo, hoy pasamos cada vez más tiempo frente a pantallas e interactuando con herramientas de inteligencia artificial como ChatGPT, máquinas que funcionan basándose en estadísticas, no en comprensión real del sufrimiento humano.
La psiquiatra española Marian Rojas Estapé, autora de varios libros traducidos en más de 40 países, habló recientemente con el diario La Nación de Argentina sobre cómo estas tecnologías están afectando nuestras emociones y relaciones. En su consulta observa cada vez más pacientes con "una mente agotada, sobreestimulada y con enormes dificultades para sostener el silencio, la espera y la frustración". Explica que el cerebro se acostumbra a las respuestas inmediatas y, cuando la vida real aparece más lenta y compleja, empieza a parecer insuficiente.
El problema no es la tecnología en sí, sino cómo la usamos. Según Rojas, cuando la IA sustituye en lugar de complementar, "el resultado es el empobrecimiento". Aunque estas herramientas pueden ayudar a organizar pensamientos, poner nombre a emociones o practicar conversaciones difíciles, no pueden entrenar la inteligencia emocional real, que requiere contacto honesto con las propias emociones y aprender a tolerar el malestar. "La IA puede acompañar ese proceso, pero no reemplazar la experiencia humana de ser comprendido, sostenido y amado de verdad", señala.
El mayor riesgo aparece cuando la IA se convierte en un sustituto de vínculos humanos reales. Las relaciones con máquinas son cómodas: no contradicen, no exigen, no se cansan y siempre nos validan. Pero esto puede atrofiar nuestra capacidad de amar en la realidad, donde el amor incluye desencuentros, límites y esfuerzo. "El amor real tiene ternura, pero también tiene límites, verdad, compromiso y renuncia", enfatiza Rojas.
En salud mental, el cuidado es aún más crítico. La psiquiatra es categórica: la IA jamás debe reemplazar a un profesional, especialmente en casos de riesgo grave, ideación suicida o trauma severo. "En personas frágiles, una herramienta que simula empatía sin comprender realmente el sufrimiento puede generar un espejismo peligrosísimo: la sensación de estar acompañado cuando, en realidad, no hay un otro responsable, clínicamente entrenado, ni éticamente presente". Un buen uso sería emplearlo como puerta de entrada o apoyo complementario: ofrecer información sobre salud mental, ayudar a registrar síntomas o recordar hábitos protectores. Pero hay una línea roja clara: la IA no debe gestionar por sí sola una crisis vital.
Rojas también advierte sobre los efectos en niños. El cerebro infantil se construye en relación con otros, a través de la mirada, la voz, el juego libre y la disponibilidad emocional de un adulto. Ningún dispositivo debe ocupar ese lugar. La interacción temprana con asistentes de IA puede confundir procesos delicados del desarrollo emocional y criar niños con menos tolerancia a la frustración y más dificultad para conectar con la complejidad del ser humano real.
Para vivir de manera más saludable en esta era, Rojas recomienda momentos sin pantalla, espacios de aburrimiento, lectura profunda, deporte, contacto con la naturaleza y conversación cara a cara. Lo importante es hacerse una pregunta honesta: ¿estoy usando esta herramienta para vivir mejor o para evitar enfrentarme a mí mismo? La clave, resume, es que "la IA nos quite carga, pero no nos saque alma. Que nos ayude a ser más eficaces, pero no menos humanos".
Fuente original: El Tiempo - Salud