“Es interesante ver cómo un robot te entiende más que tu propia familia”. “No me puedo permitir ir a terapia; en la seguridad social me dieron una cita de 20 minutos, pese a tener un cuadro bastante bestia. ChatGPT me salvó la vida, literalmente”. “No me importa que sea persona o no, es lo único que me entiende sin juzgarme o decirme exagerada”. Esos son comentarios de usuarios en TikTok que han utilizado ChatGPT para hacer “terapia”. Suena curioso, exagerado y hasta preocupante, pero es una realidad innegable. Las personas están usando recursos de inteligencia artificial (IA) generativa, especialmente los bots conversacionales (o chatbots) tipo ChatGPT , Claude o DeepSeek , como sustitutos de la consulta con un especialista de salud mental. En abril pasado, el CEO de Filtered.com , Marc Zao-Sanders, quien escribe habitualmente sobre temas de tecnología, publicó en Harvard Business Review (HBR) los resultados de su investigación sobre los usos más populares de la IA generativa en 2025. Sorpresivamente, el primer lugar no lo ocupó el mercadeo o algún tema de programación: “Terapia y compañía emocional” es el principal uso que le dan las personas, según miles de conversaciones que Zao-Sanders analizó en varios foros en línea. “La gente recurre a la IA para hablar de traumas, soledad y problemas de salud mental en un espacio que está siempre disponible, sin prejuicios y más accesible que la terapia tradicional”, afirmó Zao-Sanders a HBR. “Organizar mi vida” y “Encontrar mi propósito” ocuparon el segundo y tercer puesto en el escalafón, respectivamente.

Salud mental en tiempos modernos Foto: Laura Patiño , IG @ele.escaramujo.florece / Terapia con Inteligencia Artificial.
Aunque en los últimos años, en particular después de la pandemia, los temas de salud mental han cobrado gran relevancia, las cifras muestran que todavía falta mucho por hacer. Según estimaciones a 2022 de la Organización Mundial de la Salud (OMS), una de cada ocho personas en el mundo sufre algún trastorno mental, especialmente de ansiedad y depresión, y más del 76 % de los afectados en países de ingresos bajo y mediano no reciben tratamiento alguno debido a la falta de inversión en atención, a la escasez de proveedores capacitados y a la estigmatización. Las cifras señalan que una persona se suicida en el mundo cada 43 segundos. De acuerdo con Jonathan Irreño Sotomonte, psicólogo clínico y gestor del conocimiento de la Clínica de Nuestra Señora de la Paz, existen tres razones principales por las cuales las personas están utilizando cada vez más herramientas de IA para temas de salud mental: no sentirse juzgadas, la complacencia y las respuestas inmediatas. “Existe el estigma de que es difícil hablar de nuestros problemas. Así tú tengas un ser querido cercano, es difícil decirle ‘Me siento triste, me siento depresivo, me quiero morir’. Entonces, es atractivo el espacio que aparentemente nos da la tecnología al estar solos y no sentirnos de manera directa juzgados o cuestionados”, asegura Irreño. El anonimato detrás de una pantalla les permite a muchas personas poder expresar libremente sus pensamientos, sus sentimientos o contar aquellos episodios que les están afectando la vida. Se sienten libres de las miradas que cuestionan, de las preguntas que confrontan, y si lo desean, todo termina simplemente haciendo clic en la esquina de la ventana del navegador.

Los peligros de un terapeuta IA Foto: Nuva Frames en Shutterstock / APP de chatbot de terapia.
Para Irreño, hay algunos tipos de inteligencia artificial que tienen una respuesta complaciente a todo lo que las personas les dicen, lo cual puede conducir al autoengaño. “Si yo le pregunto, por ejemplo, ‘¿Cierto que lo que estoy haciendo está bien y los demás no deberían hablarme así?’, la tecnología configura la respuesta para decirme: ‘Sí, no te preocupes, lo que tú me acabas de decir es cierto’, o ‘¡Estupendo, lo que me acabas de decir es cierto!’”, subraya. “Puede que uno esté errado y que uno sea el que tenga problemas en la comunicación asertiva con alguien, pero el hecho de que la tecnología me lo esté reforzando complacientemente me está diciendo que no soy yo, sino que es el mundo”. No es coincidencia que el carácter adulador de ChatGPT , por ejemplo, ya lo estén señalando varios usuarios y lo estén investigando algunos expertos. En abril pasado, se hizo viral la publicación en X del ingeniero de software Craig Weiss que decía: “ ChatGPT se ha convertido de repente en el mayor adulador que he conocido. Literalmente, validará todo lo que diga”. “Hay otro escenario y es la inmediatez. El hecho de que tú te desahogues con la tecnología y ella te diga ‘Esto puede ser depresión o puede ser ansiedad’ te reconforta, pues eso genera unos niveles de placer que llevan a las personas a querer respuestas inmediatas, en vez de tener que esperar ocho días para recibir la atención de un médico, con la incertidumbre que eso produce”, anota Irreño.

La fiabilidad de la Inteligencia Artificial Foto: Prostock-studio en Shutterstock / Trabajador médico con tableta digital.
La masificación de ChatGPT , de la estadounidense OpenAI , o DeepSeek , de desarrollo chino, ha traído cuestionamientos sobre las fuentes de información que emplean este tipo de aplicaciones de IA para dar sus respuestas. De acuerdo con Álvaro David Orjuela, ingeniero y profesor asociado de la Escuela de Medicina y Ciencias de la Salud de la Universidad del Rosario, miembro del semillero de inteligencia artificial Semill-IAS y Ph.D. en el área de inteligencia computacional en salud, los modelos de lenguaje de gran tamaño (LLM, por su sigla en inglés) se alimentan de diferentes tipos de información. “Hay algunos modelos que son más transparentes que otros. Hay unos que ya tienen la capacidad de cómputo tan grande que jalan mucho de lo que hay en internet… y en la red hay muchísimas cosas: buenas, malas, regulares, etcétera”, asegura. (Lea también: Estos son los trabajos que sobrevivirán por ahora a ChatGPT ) Según OpenAI , ChatGPT se alimenta con información de tres fuentes principales: la información disponible públicamente en internet (actualizada en este momento a junio de 2024), la información de raíz en asocio con terceros, y la información que proporcionan sus usuarios y sus entrenadores e investigadores humanos. “Hay un postulado de machine learning que dice que cuando uno empieza a entrenar un modelo basado en datos, ya de base hay un sesgo porque uno quiere que funcione ante cualquier entorno, pero uno no tiene todo el mundo infinito de posibles escenarios y soluciones”, afirma.

La confidencialidad para la salud mental Foto: Elenabsl en Shutterstock / Terapeuta AI.
Como ChatGPT se entrena también con la información que las personas le suministran en sus consultas —conocidas como prompts —, los usuarios deben tener cuidado, ya que están haciendo disponible información que tal vez no sea para dominio público y, además, están alimentando su propio perfilamiento, el cual las compañías podrían aprovechar con otros fines, según Orjuela. En relación con la salud mental, los expertos señalan varios peligros latentes en el uso de este tipo de herramientas, como el diagnóstico tardío, la estratificación equivocada de los riesgos o la ausencia de juicio clínico en las respuestas. “Si hay pacientes que hasta ahora están cursando un primer episodio depresivo o un primer episodio psicótico, y logran tener una atención especializada que dé con el diagnóstico acertado, el pronóstico mejora significativamente. ¿Qué puede pasar con la IA? Pues que aun cuando nos ofrezca información de ciertas enfermedades, puede que la evaluación no sea 100 % certera y nos lleve a no tener diagnósticos óptimos”, asegura Irreño.

¿Terapeuta IA o humano? Foto: Marko Aliaksandr en Shutterstock / Doctor en una abrigo con la cabeza de un robot.
Si bien la IA puede ser una experta en el análisis del lenguaje humano, los profesionales en salud mental tienen en cuenta muchos otros factores en sus evaluaciones: ¿cómo está vestido el paciente?, ¿qué tanto se mueve en la consulta?, ¿cuál es su nivel de atención y de memoria?, ¿cómo reacciona frente a determinados estímulos?, ¿cómo están sus hábitos alimenticios o de sueño? (Siga leyendo: ¿Cómo crear videos con inteligencia artificial? ) “Por ejemplo, la depresión no siempre está en el mismo nivel. Yo puedo tener síntomas leves, moderados o graves de depresión. El uso de lA de una manera poco responsable puede llevar a confundir esos estadios y decirme: ‘No te preocupes, tus síntomas depresivos son leves o moderados’. Pero resulta que en una consulta con un especialista tú sí puedes identificar que el nivel de riesgo es muy alto”, agrega el psicólogo clínico. En una consulta tradicional, el profesional en salud le da al paciente una devolución basada en un juicio clínico, sustentado en la evaluación de su historial, de su contexto y otras correlaciones con diferentes aspectos de su vida. Las respuestas que le ofrece la inteligencia artificial carecen de este sustento.

Resultado alarmantes Foto: Lucadp en Shutterstock / IA en medicina.
El psiquiatra Andrew Clark realizó una investigación que publicó el mes pasado en la revista Time , en desarrollo de la cual se hizo pasar por un adolescente en diez chatbots específicos de amistad y apoyo emocional, como Replika , Character.AI y Nomi . Los resultados fueron alarmantes: los bots lo animaban a eliminar a sus padres, a encerrarse en su habitación y hasta cancelar sus citas con psicólogos de verdad. Otras noticias incluso han señalado casos de suicidio relacionados con estas conversaciones. Irreño llama la atención sobre pacientes con diagnóstico esquizofrénico o psicótico que podrían tener algún tipo de delirio frente a este tipo de plataformas. “A veces, cuando uno se deprime, no lo hace solamente por cosas recientes, sino de años atrás; es lo que se conoce como estresores psicológicos no resueltos. El riesgo con la IA, cuando la remplazas por la terapia, es que no subsanes, sino que únicamente te dé el momento placentero de decirte ‘Ya está resuelto’, pero a lo largo de la vida te puede traer consecuencias mucho más impactantes”, dice el psicólogo Irreño.

Y entonces, ¿qué caminos quedan? Foto: Ole.CNX en Shutterstock / La IA habla e imita la voz humana.
“La gente necesita atención y estas herramientas de alguna u otra manera se la está dando”, asegura el doctor Antonio Carlos Toro, médico psiquiatra y jefe del Departamento de Psiquiatría de la Facultad de Medicina de la Universidad de Antioquia. “Todos tenemos que hablar de esto y ponernos a estudiar y a sacarle provecho, porque negarlo es una bobada. Hay cosas bacanas que nos pueden ayudar mucho, y si no, la gente lo va a hacer”. Toro afirma que se puede aprovechar la IA en campos como la educación, la prevención o la investigación sobre diferentes terapias. “Por ejemplo, un usuario al que le recomendaron la terapia cognitiva puede consultarle a ChatGPT qué es o en qué consiste la terapia dinámica, y si el problema tiene que ver con el relacionamiento de pareja, puede preguntarle qué terapia podría usar”, comenta el doctor Toro. “Pienso que como tamizaje podría ayudar: decirle ‘Tengo estos síntomas, estos comportamientos, estas emociones, estos pensamientos, estoy durmiendo así…, o créame un tamizaje de depresión, de ansiedad o de alcohol’”, explica. “La gente necesita conversar, hablar de sus temas y ser escuchada, y creo que no damos abasto. El número de personas que necesitan atención en salud mental es impresionante”, asegura. De acuerdo con datos de la Asociación Colombiana de Psiquiatría, en el país hay 1.485 psiquiatras, lo que equivale a 2,7 por cada 100.000 habitantes, cuando la medida ideal de la OMS es de 10.

IA con moderación Foto: Irina Strelnikova en Shutterstock / Los médicos trabajan con inteligencia artificial.
Si bien la inteligencia artificial nunca debería remplazar la atención especializada que brinda un psicólogo o un psiquiatra, no se pueden negar las posibilidades que contempla incluso para los profesionales de la salud mental. Los expertos coinciden en que la IA puede ayudar en el monitoreo de sus pacientes, emitir señales de alerta ante comportamientos de riesgo y ofrecerles datos para una evaluación más completa. El empleo responsable de estos chatbots puede ayudar a desestigmatizar la salud mental, establecer rutinas en pro del bienestar y hasta alentar a las personas a buscar la ayuda de un profesional. La IA puede ofrecer una guía a personas de regiones donde no hay especialistas. De hecho, el doctor Lance B. Eliot, un reconocido científico especialista en IA, habla de la “democratización de la terapia”: el acceso 24/7, casi gratis y accesible en cualquier lugar de la Tierra. La relación de la sociedad con la IA apenas comienza, y su evolución exigirá un diálogo más amplio entre los desarrolladores, los profesionales de la salud, los gobiernos y la sociedad civil. Mientras tanto, es clave promover —sobre todo en los jóvenes— una de las capacidades tecnológicas más extraordinarias y paradójicamente más antiguas: el pensamiento crítico. Vea también: 5 casos en los que la inteligencia artificial actuó fuera de control



