LT Board

Mi psicólogo es ChatGPT: ¿es peligroso hablar con la IA en vez de ir terapia?

Hablar sin ser juzgado y sin tener que pagarle a un terapeuta son algunas de las ventajas que muchas personas encuentran a la hora de contarle sus problemas a un chatbot. Pero ¿qué pasa cuando tras ese relato hay un problema grave de salud mental? Aquí, analizamos un nuevo flanco ético y médico que abre el uso de inteligencia artificial.

Conversar con un chatbot puede dar sensación de compañía y validación inmediata, pero no reemplaza una evaluación clínica ni un tratamiento profesional. (Imagen generada con GEMINI de Google).

Al entrar a TikTok, lo primero que aparece es el video de una mujer que acaba de terminar la Maratón de Santiago. “A nadie le importa que hayas corrido 21 kilómetros”, dice el texto en pantalla. Sin embargo, en la siguiente imagen se lee su conversación con ChatGPT: un diálogo en el que el asistente de inteligencia artificial la felicita, valida su esfuerzo y le recomienda descansar.

¿Por qué la opinión de un ente sin vida, que todos sabemos que está programado para dar ciertas respuestas dependiendo del tipo de interacción que tenga con el usuario, puede llegar a ser tan importante como la de un amigo, un familiar o –incluso– un especialista?

Para Vanessa (31), biotecnóloga, en algún momento de su vida sí lo fue. Hace pocas semanas acaba de pedir su primera licencia médica por salud mental, después de años sintiéndose mal. Pero durante varios meses antes de tomar la decisión de visitar un psiquiatra y conseguir una opinión profesional, compartió sus miedos e inquietudes con un chatbot.

La terapia humana sigue siendo insustituible para comprender el contexto, construir vínculo y definir tratamientos adecuados.

El chat de Vanessa no sólo conoce sus problemas mentales; también sus recetas favoritas, sus posibles rutas de trekking y también algunas de las traducciones cotidianas que debe hacer del inglés al español por su trabajo. Y si bien reconoce que demoró mucho tiempo en tomar la decisión de pasar de la IA al psiquiatra, aún contrasta con ella las discusiones que tiene con su terapeuta, a modo de complemento.

La historia de Vanessa abre una pregunta más incómoda: ¿por qué, la inteligencia artificial podría llegar a ocupar el lugar de un psicólogo o el psiquiatra?

Si bien aún no hay estudios ligados a Chile, algunos análisis en países del norte muestran que la confianza de los usuarios en la IA a la hora de buscar apoyo psicológico no es marginal, sino un comportamiento que va en crecimiento.

Para muchos usuarios, hablar con IA es un primer paso antes de acudir a un especialista. Shutterstock

En noviembre de 2025, Mental Health UK constató que un 37% de los adultos ha usado chatbots de IA para apoyar su salud mental o bienestar: una cifra que entre jóvenes de 25 a 34 años aumenta a un 64%.

Entre los motivos para tener esta conducta, una investigación hecha en Estados Unidos muestra que el 43,7% de los encuestados prefiere hablar primero con un chatbot antes que con amigos, familia o profesionales, principalmente por miedo al juicio ajeno.

¿Qué hay detrás de este cambio? Los especialistas coinciden en que no se trata sólo de una preferencia tecnológica, sino de un síntoma más profundo.

El psicólogo Nicolás Núñez de la UNAB advierte que, aunque los chatbots pueden ofrecer una primera contención emocional, no sustituyen la guía profesional necesaria para identificar el origen del malestar ni intervenir a tiempo.

Para Nicolás Núñez, psicólogo del Centro de Atención Psicológica (CAPSI) de la Universidad Andrés Bello, el fenómeno responde a dos factores: una crisis de salud mental con alta demanda y bajo acceso –a partir del alto costo que significa asistir a un psicólogo o psiquiatra– y una percepción social de que acudir a terapia implica incomodidades que pueden evitarse en un chat.

“Muchos ven un incentivo ante el temor a ser juzgadas o etiquetadas en una consulta psiquiátrica o psicológica, en especial quienes valoran fuertemente su privacidad”

Nicolás Núñez, psicólogo de la UNAB

El psicólogo Eric Beltrán, especialista en terapia familiar sistémica en la Universidad de La Frontera (UFRO), comparte esta opinión. Para él, la tendencia “más bien muestra una crisis de acceso a la salud mental que una preferencia real por la IA. Este punto es relevante, considerando que las cifras de ansiedad y depresión en los últimos años, particularmente después de la pandemia, no han disminuido, sino que han aumentado”, analiza.

La salud mental necesita terapia humana

El filósofo Abel Wajnerman, colaborador asociado del Centro Nacional de Inteligencia Artificial (CENIA), explica la posible razón de la preferencia por contarle nuestros problemas a la IA: esta herramienta ha logrado generar una sensación de escucha y comprensión, lo que ha llevado a muchos usuarios a confiarle problemas personales.

Especialistas advierten que los chatbots no pueden detectar señales no verbales clave para un diagnóstico oportuno. (Imagen generada por GEMINI de Google)

El hecho, además, de que puedan imitar rasgos propios de la comunicación humana, hace que las personas, “instintivamente”, respondan a ellas como si fueran otro interlocutor.

“No se trata meramente de rasgos antropomórficos en general, sino de aspectos más específicos que la IA generativa va desarrollando cada vez más”,

Abel Wajnerman, filósofo

La fluidez en la conversación, poder recordar lo que le dijimos, adaptar el tono al contexto emocional del usuario, entre otros aspectos, hacen que algunos sistemas conversacionales generen familiaridad, cercanía y una interacción más personal.

Para algunos usuarios, hablar con una IA resulta más fácil que hablar con otro ser humano porque no sienten juicio, aburrimiento, cansancio ni rechazo, además de tener una disponibilidad 24/7”, menciona. Esto, agrega, puede favorecer una apertura emocional muy rápida, incluso en conversaciones sobre cuestiones íntimas o dolorosas.

El filósofo Abel Wajnerman señala que la IA puede generar vínculos emocionales intensos y, en usuarios vulnerables, incluso reforzar dependencias o ideas dañinas si no existe regulación adecuada.

Sin embargo, cuando estas confesiones entran en la esfera de un posible problema de salud mental, la interacción con los chatbots puede pasar de ser un espacio de confianza a uno de riesgo, especialmente cuando esa enfermedad necesita medicación.

Nicolás Núñez sugiere que, si bien en primera instancia emocional un chat podría dar algunas respuestas de entrada, encontrar un origen para el malestar implica la necesidad contar con una guía y una estrategia profesional.

Reemplazar la terapia por conversaciones con IA implica peligros clínicos relevantes. Entre ellos, los especialistas destacan su incapacidad para captar señales no verbales y otras dimensiones clave del funcionamiento de una persona, lo que limita la precisión diagnóstica y reduce su capacidad para detectar problemas a tiempo o entregar orientaciones adecuadas.

“Debido a que el chat empatiza en función de un algoritmo, y no en función de experiencias emocionales compartidas con el paciente, puede transmitir una sensación de desconexión emocional que incremente los sentimientos de soledad”

Psicólogo Nicolás Núñez, de la UNAB.
El auge de la IA en salud mental refleja tanto avances tecnológicos como una crisis de acceso a atención psicológica.

Para el psicólogo, el chat presenta límites importantes, que lo pueden llevar a pasar por alto información sensible y derechamente a perder oportunidades para realizar intervenciones “en el momento”, con el tono emocional y la sensibilidad cultural necesaria para que ésta sea efectiva.

A su vez, existen importantes daños asociados, como la no detección oportuna de riesgo suicida, la intervención superficial basada en un estilo complaciente en el que el chat evita confrontar al paciente, y riesgos éticos importantes relacionados con la privacidad y el uso y almacenamiento de la información personal.

Para Eric Beltrán, especialista de la UFRO, el mayor riesgo está en confundir contención con tratamiento, lo que podría llegar a reforzar estrategias descontextualizadas y sin responsabilidad clínica.

Al no existir ninguna legislación o protocolos claros acerca de las responsabilidades y limitaciones en el uso de la IA en salud mental, el chat no tiene manera de lograr un diagnóstico complejo, un tratamiento o seguimiento, ni responsabilidad ética sostenida. Tampoco puede trabajar lazos significativos para comprender mejor la vida del paciente.

Para el psicólogo Eric Beltrán, el uso de IA en salud mental refleja más una crisis de acceso que una preferencia real, y alerta sobre el riesgo de confundir contención digital con tratamiento clínico.

Abel Wajnerman va más allá, y piensa que ante dinámicas entre chatbots y usuarios vulnerables, es decir, individuos con una condición mental preexistente, aislamiento social o una fuerte necesidad de validación, puede incluso promover formas dañinas de apego y dependencia emocional, reforzando ideas delirantes, persecutorias, autolesivas o violentas en vez de desactivarlas.

“La prudencia y el conocimiento contextual de la experiencia humana son necesarios para saber cuándo validar emocionalmente, cuándo confrontar, y cómo introducir una perspectiva disonante de un modo que realmente ayude a la persona”

Eric Beltrán, psicólogo UFRO

Responsabilidades y regulación

Si la IA ya está ocupando un lugar en la salud mental, la pregunta de los especialistas es: ¿cómo llegar a tiempo en aquellos casos que requieren una intervención médica urgente?

Para Abel Wajnerman, la responsabilidad no recae sólo en los usuarios. “Hay una responsabilidad clara por parte de las empresas”, afirma, y explica que al diseñar sistemas con rasgos humanos, disponibilidad permanente y dinámicas que fomentan la interacción, “están configurando activamente un entorno que puede promover el apego emocional”.

El uso de IA en temas personales abre interrogantes sobre privacidad, almacenamiento de datos y responsabilidad ética.

Este diseño, agrega, responde al modelo de la “economía de la atención”, orientado a captar y retener a los usuarios. Aun así, reconoce que “los usuarios también tienen un margen de responsabilidad”, aunque advierte que existen “asimetrías estructurales” que hacen que el peso no sea equivalente.

Pese a que los profesionales ven potencial en estas herramientas, “hay una oportunidad de convertir estas tecnologías en apoyos para enfrentar una crisis de salud mental”, sentencia Nicolás Núñez.

Es importante entregar el mensaje de que ninguna inteligencia artificial podrá reemplazar la atención de un médico o de un psicólogo.

Además, se hace urgente una regulación de la tecnología. Mientras no exista un marco ético claro, muchos confiarán sus miedos y secretos al alcance del celular, esperando respuestas sin respaldo clínico.

Más sobre:LT BoardPsicologíaChatGPTInteligencia ArtificialPsicólogosAtención psicológicaSalud mentalbranded-ltboard

Lo más leído

Casi nadie tiene claro qué es un modelo generativo. El resto lo leyó en La Tercera

Plan Digital + LT Beneficios$6.990 al mes SUSCRÍBETE