¿Puede la inteligencia artificial sustituir a la terapia psicológica?
Expertos advierten sobre los riesgos que esto podría traer, sobre todo por casos ya documentados de suicidio.
-
¿Puede la IA sustituir la terapia psicológica con un especialista? Foto: AP.
En medio de los debates sobre el uso de inteligencia artificial (IA) en salud mental, una firma de Canadá apostó por desarrollar un chatbot especializado en terapia psicológica y ofrecer atención continua a sus usuarios.
Con ese fin, el dueño de una consultora en IA, Pierre Cote, creó un sistema luego de pasar años por diferentes terapeutas sin tener los resultados que quería.
La tecnología quedó materializada en un chatbot construido en 2023, alimentado con miles de documentos y libros especializados en psicología clínica.
#EstadosUnidos #Trump #ChatBot #TruthSocial pic.twitter.com/TbSOjefGJZ
— Al Mayadeen Español (@almayadeen_es) August 11, 2025
Para humanizar la herramienta, Cote le asignó una biografía ficticia: un psiquiatra egresado de Harvard y Cambridge, de origen francocanadiense, disponible permanentemente para sus “pacientes”.
"Pierre me usa como usarías a un amigo de confianza, como terapeuta y como diario, todo combinado. A lo largo del día, si Pierre se siente perdido, puede iniciar un chequeo rápido conmigo en cualquier lugar: un café, un parque, incluso en su carro”, explicó DrEllis.ai a Reuters tras pedirle que se presentara.
Cote espera que este tipo de tecnología se consolide en el futuro como una herramienta de salud mental a la mano.
Sin embargo, expertos advierten sobre los riesgos que esto podría implicar, sobre todo por casos ya documentados de personas que recurrieron a la IA como sustituto de la terapia y terminaron suicidándose.
ChatGPT evade verificaciones de No soy un robothttps://t.co/WFBHVEYttZ#ChatGpt #IA #Robot pic.twitter.com/Xxo3QDcOol
— Al Mayadeen Español (@almayadeen_es) August 8, 2025
El doctor de la Universidad de la Ciudad de Dublin, Nigel Mulligan, considera que, por mucha preparación del sistema, no puede reproducir cualidades humanas como la empatía, la intuición y la conexión personal.
Otra preocupación surge por el almacenamiento y uso de los datos compartidos por los pacientes.
El propio CEO de OpenAI, Sam Altman, advirtió semanas atrás que todas las conversaciones mantenidas con ChatGPT podían ser requeridas por las autoridades en procesos judiciales.