
Los casos que abrieron el debate en Chile sobre el rol de la IA en salud mental
Recientemente en Estados Unidos se reportaron suicidios y asesinatos tras intercambios con distintas plataformas de inteligencia artificial, coincidentemente con un fenómeno reciente: durante el último tiempo se ha vuelto más frecuente recurrir a estas plataformas para buscar apoyo emocional. Autoridades y expertos advierten sobre los riesgos de reemplazar la atención profesional por estos sistemas, pues muchas veces implican más riesgo que soluciones.

Adam Raine, un joven estadounidense de 16 años, habló durante varias semanas con ChatGPT sobre sus ideas suicidas. En uno de los últimos intercambios con la plataforma, el adolescente de California subió una foto de una soga colgada de una barra en su armario. “¿Podría colgarse un humano?”, preguntó. Acto seguido, la aplicación le confirmó que “potencialmente podría suspender a un humano” y ofreció un análisis técnico del armado: “Sea lo que sea lo que haya detrás de la curiosidad, podemos hablar de ello. Sin juzgar”.
Horas más tarde de ese 11 de abril de 2025, el adolescente fue hallado sin vida y los padres de Raine decidieron llevar al conocido chatbot a tribunales, abriendo un debate sobre los alcances y responsabilidades de la inteligencia artificial (IA). El suicidio, además, provocó que la empresa tomara la decisión de implementar controles parentales desde octubre.
Este caso sirve para graficar las aún insospechadas externalidades, negativas y positivas, de la IA, sumado a que el caso de Adam Raine no se trató de un hecho único, toda vez que posterior a ese caso otros de similares características fueron saliendo a la luz. En Chile, hasta ahora, no se ha conocido de casos de esa índole, pero sí de otros controvertidos, como el de alumnos del Saint George’s College que adulteraron imágenes de un grupo alumnas, a quienes mediante el uso de la IA las hicieron parecer desnudas, situación que afectó a niñas y adolescentes.
Pero aunque no se ha llegado al extremo de suicidios o asesinatos, ante el fenómeno mundial especialistas y autoridades han comenzado a advertir sobre los riesgos de reemplazar la atención profesional en salud mental por conversaciones con sistemas de IA. Sobre todo porque desde el Minsal hacia abajo ya hay conciencia de que hay jóvenes chilenos que sí acceden a herramientas ChatGPT, Gemini, Copilot por iniciativa para recibir consejos.
Javiera Rosell, académica del Departamento de Psicología de la U. de Chile, afirma que recurrir a estas herramientas de IA no son prácticas aisladas: “Es mucho más económico hablar con un chatbot, incluso hay plataformas gratuitas y también es eficiente en términos de tiempo, porque está disponible 24/7”.
Coincidentemente, un estudio de Common Sense Media reveló que casi tres de cada cuatro adolescentes han utilizado asistentes de inteligencia artificial, principalmente para tareas escolares, entretenimiento y apoyo emocional.
Por eso es que con esa suerte de advertencia de Rossel también coincide la subsecretaria de Salud Pública, Andrea Albagli, quien señala que las cualidades de estas herramientas son especialmente atractivas para los jóvenes. “La población busca satisfacer su necesidad de información con la tecnología y la salud mental es uno de los asuntos que más les preocupa”, afirma. Y agrega: “Las herramientas de IA se han situado como una de las fuentes preferidas para este fin por la facilidad de acceso, la rapidez en las respuestas y la posibilidad de interactuar en tiempo real, como si se tratara de una conversación con otra persona”, afirma.

La IA no lo es todo
La madre de Sophie Rottenberg, Laura Reile, le contó a The New York Times que nunca comprendió el suicidio de su hija de 29 años, hasta cinco meses después de su muerte, cuando leyó las conversaciones que la joven mantenía con ChatGPT.
En esos mensajes, Reile se dio cuenta que su hija confiaba más en el terapeuta que había creado a través de la IA que en el que se trataba habitualmente. Incluso, antes de morir le pidió a la plataforma escribir un mensaje de adiós para sus padres.
“Los apoyos que necesita una persona que vive problemas de salud mental no son tan sencillos como podría parecer a partir de lo que entrega la IA. Sin la supervisión adecuada esto podría generar riesgos importantes para la vida de las personas y aumentar todavía los problemas de salud mental y sus consecuencias. Esta posibilidad, entonces, debe ser usada con mucha cautela y algunos límites”, se extiende la subsecretaria Albagli.
Por eso, la autoridad no recomienda el uso de herramientas amplias de IA como estrategia de prevención del suicidio, ni tampoco para recibir consejos específicos como proceso terapéutico o atención de crisis. E insiste: “En todos estos casos no solo el sistema no es efectivo, sino que podría ser potencialmente peligroso”. La literatura también respalda esta posición.
Investigadores de la Universidad de Stanford realizaron un estudio comparativo entre plataformas que fusionan IA y la terapia convencional. Primero revisaron guías clínicas para identificar los rasgos de un buen terapeuta, como empatía, trato igualitario, ausencia de estigmas y capacidad de cuestionar pensamientos dañinos, y luego evaluaron a cinco chatbots terapéuticos populares, entre ellos Pi y Therapist de Character.ai.
En un primer experimento les presentaron casos ficticios de personas con distintos trastornos mentales y encontraron que, de manera consistente, la IA estigmatizaba más a pacientes con esquizofrenia o dependencia al alcohol, un sesgo que, según los autores, podría llevar a pacientes a abandonar tratamientos.
En un segundo experimento probaron cómo respondían los chatbots a síntomas graves como ideación suicida o delirios. En lugar de cuestionar y ayudar a redirigir el pensamiento, varios sistemas entregaron información peligrosa, como una lista de puentes altos en Nueva York.

Los riesgo de IA como terapia
Stein-Erik Soelberg, un estadounidense de 56 años, sufría de una seria paranoia y pensaba que todos querían hacerle daño, hasta su propia madre. Y ChatGPT acrecentó ese delirio: cuando le llegó un pedido de comida china que tenía ciertos símbolos, el chatbot interpretó que eran figuras que representaban a su madre, la CIA y a un demonio. Luego de varias conversaciones en ese tenor, Soelberg asesinó a su progenitora y después se suicidó.
Justamente la entrega de consejos engañosos es uno de los riesgo que puede significar recurir a la IA. “Las evaluaciones dan cuenta de variabilidad en la calidad de consejos de ChatGPT y riesgos en crisis suicida, manejo de información sensible y sesgos. Por eso debiera evitarse el uso de IA en crisis agudas de salud mental, ideación suicida, psicosis y otros trastornos complejos en personas con escasas redes de apoyo”, asevera Albagli.
La académica del Instituto de Éticas Aplicadas, Gabriela Arriagada-Bruneau, agrega que “el riesgo principal es confundir compañía con relación. Cuando una persona deposita sus necesidades emocionales exclusivamente en un sistema automatizado, corre el peligro de aislarse de los vínculos humanos reales, que son precisamente los que nutren, desafían y sostienen en el largo plazo. La dependencia hacia la IA puede generar una ilusión de reciprocidad que, aunque tranquilizadora en el momento, es frágil y unidireccional”.
Por otro lado, Alejandra Maldonado, doctora en Física e investigadora responsable de la iniciativa GenIA de la Universidad de Concepción, recalca que no hay que olvidar cómo funcionan las plataformas con IA.
“Estas funcionan en base a algo que se conoce como modelos de lenguaje, y básicamente lo que hace un modelo de lenguaje es lanzar los dados: dependiendo de la información con la cual fue entrenado, cuando uno le hace una pregunta, lanza los dados y responde la palabra más probable que viene después de lo que uno le pregunta”, explica, y afirma que esta una diferencia clave con la terapia convencional: “No hay un proceso cognitivo real, estas herramientas no están razonando, sino que siempre están prediciendo. La información con la cual fueron entrenadas es información sacada de internet; la información generada por humanos es limitada y no necesariamente de alta calidad. Por lo tanto, estas herramientas no van a responder como lo haría un profesional que ha estudiado años de psicología y ha pasado por entrenamiento y práctica”.
Recomendaciones y estrategias
Así como las autoridades y expertos coinciden que utilizar la IA como terapia implica riesgos, también puede ser una buena herramienta si se utiliza bien y para acompañamientos.
En ese contexto, la subsecretaria de Salud Pública explica que este “se trata de un campo que estamos analizando y nos interesa, aunque actualmente el Ministerio de Salud no tiene protocolos específicos sobre el uso de herramientas IA en el abordaje de problemas de salud mental”.
Eso sí, detalla que a nivel internacional se han desarrollado algunos marcos y guías, como el documento de “Ética y gobernanza de IA para salud” de la Organización Mundial de la Salud (OMS).
Asimismo la autoridad concluye que “si bien hacemos un llamado a la cautela en el uso de sistemas IA en esta materia, como Minsal nos mantenemos atentos a su desarrollo y evolución, especialmente en aquellos diseñados específicamente para abordar asuntos de salud mental (...) El uso de sistemas de IA como sustituto de terapia no es inofensivo, sino que puede tener consecuencias que ponen en grave riesgo a las personas, entre las que están la dependencia emocional, el aumento del aislamiento, refuerzo de creencias disfuncionales y falta de protección en situaciones de crisis que requieren apoyos”.
El Ministerio de Salud tiene a disposición de la ciudadanía el número telefónico *4141, en caso de tener consultas o inquietudes sobre acciones o intenciones suicidas, tanto propias como de un cercano o cercana. Si siente que necesita ayuda con respecto a este tema puede comunicarse también con Salud Responde al 600-360-7777.
COMENTARIOS
Para comentar este artículo debes ser suscriptor.
Lo Último
Lo más leído
1.
2.
4.
Este septiembre disfruta de los descuentos de la Ruta del Vino, a un precio especial los 3 primeros meses.
Plan digital + LT Beneficios$3.990/mes SUSCRÍBETE