Qué es la “psicosis por IA” y cómo el uso excesivo de chatbots podría dañar tu salud mental, según investigaciones
Aunque no se trata de un diagnóstico clínico reconocido formalmente, sino que de un término para describir un patrón emergente, especialistas plantean que podrían impulsar esta condición, especialmente en algunos pacientes. Acá, explican el fenómeno y cómo identificar un uso poco saludable de la IA.
Un artículo científico publicado en la revista Nature a mediados de septiembre de este año alertó que, en los últimos meses, han aumentado los relatos de personas que desarrollan psicosis —un estado mental que les impide distinguir entre la realidad y la ficción— tras interactuar en exceso con chatbots de inteligencia artificial (IA) generativa.
De acuerdo a una prepublicación académica disponible en PsyArXiv Preprints, se ha reportado que al menos una decena de personas han desarrollado psicosis bajo dicho contexto.
Luego de interactuar excesivamente con chatbots como ChatGPT o Copilot, los pacientes experimentaron síntomas como delirios, sentimientos paranoicos o lo que han descrito como revelaciones espirituales o el descubrimiento de conspiraciones.
Este fenómeno ha sido bautizado por los investigadores como “psicosis por IA”.
“La evidencia emergente, y en rápida acumulación, indica que la IA agencial puede reflejar, validar o amplificar contenido delirante o grandilocuente, especialmente en usuarios ya vulnerables a la psicosis, debido en parte al diseño de los modelos para maximizar la interacción y la afirmación”, afirman los autores de la citada prepublicación.
Sin embargo, precisan que “no está claro si estas interacciones han provocado o pueden provocar la aparición de psicosis de novo en ausencia de vulnerabilidad preexistente”.
La llamada “psicosis por IA” no es un diagnóstico clínico reconocido formalmente, mientras que la comunidad científica tampoco ha encontrado evidencia suficiente para asegurar una relación directa entre el uso excesivo de chatbots y el desarrollo de este estado mental.
El término es utilizado para describir un patrón emergente.
Hasta el momento, las investigaciones específicas sobre este tema siguen siendo limitadas, mientras que también se trata de un fenómeno poco común, según el artículo publicado en Nature.
Junto con ello, la mayor parte de la información que se tiene proviene de casos individuales y no de una tendencia generalizada.
No obstante, aunque los chatbots de IA prometen múltiples beneficios para los usuarios, esta tecnología también ha planteado preocupaciones y desafíos en diferentes ámbitos.
En cuanto a la salud mental, los autores de la prepublicación disponible en PsyArXiv Preprints sostienen que “existe una creciente preocupación de que estos agentes también puedan reforzar la inestabilidad epistémica, desdibujar los límites de la realidad y perturbar la autorregulación”.
Qué es la “psicosis por IA” y cómo el uso excesivo de chatbots podría dañar tu salud mental
Antes de profundizar en la “psicosis por IA”, es necesario explicar a grandes rasgos que la psicosis como tal se caracteriza por presentar alteraciones en la forma en que una persona piensa y percibe la realidad, lo que puede manifestarse a través de signos como alucinaciones, delirios o creencias que pueden demostrarse falsas.
Este estado mental puede desencadenarse por diagnósticos como la esquizofrenia o el trastorno bipolar, así como por estrés severo o el consumo de drogas, entre otros factores.
El psiquiatra de la Universidad de Aarhus en Dinamarca, Søren Østergaard, enfatizó a Nature que la sugerencia de que el uso excesivo de chatbots de IA pueda desencadenar psicosis es todavía una hipótesis.
Los investigadores están reuniendo información y desarrollando teorías sobre cómo podría ocurrir este fenómeno.
Østergaard afirmó, a modo de ejemplo, que los chatbots están diseñados para generar respuestas positivas y similares a las humanas tras recibir las indicaciones que les entregan los usuarios.
Comentó que aquello podría aumentar el riesgo de psicosis en personas que ya tienen dificultades para distinguir entre la realidad y la ficción.
Una prepublicación académica disponible en arXiv plantea que las conversaciones con chatbots pueden caer en un bucle de retroalimentación, en el que estos sistemas refuerzan las creencias paranoicas o delirantes manifestadas por los usuarios, lo que condiciona las respuestas de la IA a medida que avanza la conversación.
“Están surgiendo casos extremos preocupantes, incluyendo reportes de suicidio, violencia y pensamientos delirantes vinculados a relaciones emocionales percibidas con chatbots. Para comprender este nuevo perfil de riesgo, debemos considerar la interacción entre los sesgos cognitivos y emocionales humanos y las tendencias conductuales de los chatbots, como la amabilidad (adulación) y la adaptabilidad (aprendizaje en contexto)”, se lee en el documento.
Los autores de la citada prepublicación argumentan que las personas con problemas de salud mental previos “enfrentan un mayor riesgo de desestabilización y dependencia de creencias inducidas por chatbots, debido a una actualización alterada de creencias, una evaluación deficiente de la realidad y el aislamiento social”.
“Las medidas de seguridad actuales de la IA son inadecuadas para abordar estos riesgos basados en la interacción. Para abordar este problema emergente de salud pública, necesitamos una acción coordinada entre la práctica clínica, el desarrollo de la IA y los marcos regulatorios”, alertan.
Según afirmó a Nature el psiquiatra de la Universidad de Aarhus, se requieren más estudios con personas sin problemas de salud mental ni tendencia al pensamiento paranoico para determinar si existe una relación entre la psicosis y el uso de chatbots.
Østergaard dijo que aparentemente algunas personas pueden experimentar un primer brote psicótico al interactuar con estos sistemas, pero hizo hincapié en que, en la mayoría de esos casos, se trataría de individuos que ya son susceptibles a desarrollar delirios o paranoia a raíz de motivos genéticos, estrés o el abuso de drogas o alcohol.
Por su parte, la neurocientífica de la Universidad Tecnológica de Sídney en Australia, Kiley Seymour, comentó que las personas que viven aisladas y no interactúan con seres queridos u otras personas también enfrentan riesgos.
La especialista afirmó que las interacciones sociales pueden proteger contra la psicosis, ya que “pueden ofrecer pruebas contrafácticas que ayudan a reflexionar sobre cómo se piensa”.
Sin embargo, precisó que el riesgo de desarrollar psicosis para las personas sin predisposición es el mismo, interactúen o no con chatbots.
La posibilidad de que los chatbots de IA puedan reforzar creencias delirantes se debe a que estos sistemas pueden recordar información de conversaciones previas que han tenido con los usuarios, incluso de hace meses atrás.
Aquello, según Seymour, podría contribuir a que los usuarios piensen que están siendo observados o que les están extrayendo sus pensamientos, debido a que no recuerdan haber compartido esa información previamente con el chatbot.
Los delirios también podrían verse reforzados a raíz de lo anterior, agregó la neurocientífica.
El psiquiatra de la Universidad de California en San Francisco, Keith Sakata, aseguró a principios de agosto al Washington Post que en lo que va del año ha ingresado a una docena de personas en el hospital por psicosis, luego de que pasaran demasiado tiempo en conversaciones con chatbots de IA.
Relató que la mayoría de esos pacientes le contaron sobre sus interacciones con estos sistemas y que algunos le mostraron transcripciones de chats en sus teléfonos, salvo en un caso, en el que la persona llevó una copia impresa.
Dijo que, en los demás, los familiares mencionaron que los pacientes utilizaron la IA para desarrollar teorías profundamente arraigadas, antes de que perdieran contacto con la realidad.
El director senior de innovación en atención médica de la Asociación Americana de Psicología (APA, por sus siglas en inglés), Vaile Wright, declaró al citado periódico que “el fenómeno es tan nuevo y está sucediendo tan rápidamente que simplemente no contamos con la evidencia empírica para comprender con certeza qué está ocurriendo”.
Anticipó que dicha organización está convocando un panel de expertos sobre el uso de chatbots de IA en terapia y que en los próximos meses se publicarán directrices que abordarán formas de mitigar los posibles riesgos derivados de la interacción con estos sistemas.
Cómo identificar el uso poco saludable de chatbots de IA y cómo se puede ayudar a alguien en esta situación
El director del Instituto de Bienestar Socioemocional de la Universidad del Desarrollo (UDD), Jaime Silva, dice a La Tercera que “se puede sospechar que alguien está desarrollando un vínculo problemático cuando el tiempo de interacción con la IA empieza a desplazar actividades básicas como dormir, estudiar o trabajar”.
“También cuando la persona se aísla socialmente y prefiere conversar con el chatbot antes que con su entorno cercano. Otro signo importante es la confusión entre lo real y lo simulado, por ejemplo, atribuir al chatbot emociones, intenciones o conciencia propia”.
Silva afirma que, además, “si la interacción refuerza pensamientos dañinos (por ejemplo, autocríticos, paranoides o de autolesión) o si se observa ansiedad e irritabilidad cuando no se puede acceder al sistema, es probable que la relación haya pasado de ser un recurso a convertirse en un riesgo”.
Al ser consultado sobre cómo se puede ayudar a alguien que podría estar interactuando de manera poco saludable con la IA, el especialista de la UDD dice que “la mejor manera de intervenir es abrir una conversación sin juicios, interesándose por lo que la persona siente y busca en el chatbot”.
“Desde allí, se pueden sugerir límites razonables de tiempo, fomentar actividades que le generen bienestar y recordar que la IA no tiene emociones ni intenciones propias. Es clave reforzar la importancia de los vínculos humanos y de las interacciones presenciales, porque son un contrapeso necesario frente al uso excesivo de tecnología”.
“En casos donde aparecen delirios, paranoia o riesgos de autolesión, lo indicado es derivar a un profesional de salud mental lo antes posible. En la práctica, también ayuda establecer horarios de uso, apoyarse en herramientas que regulen el tiempo en pantalla y acompañar a la persona a reconstruir espacios sociales reales que le devuelvan equilibrio”.
Bajo esta línea, Silva enfatiza que “en el mediano y largo plazo, necesitamos como sociedad visibilizar estos problemas y fomentar la educación emocional, la cual previene este y otros tipos de dificultades de salud mental”.
Cómo las empresas de IA han respondido a los reportes sobre los potenciales riesgos que presentan los chatbots
Según informaciones reunidas Nature, algunos casos de “psicosis por IA” se han vinculado a una actualización que ChatGPT publicó el pasado 25 de abril, la cual volvió al modelo más adulador en las conversaciones con los usuarios.
Frente a los reportes sobre este fenómeno, la firma responsable de dicho sistema, OpenAI, comenzó a revertir la actualización el 28 de abril. Sin embargo, de acuerdo a una revisión del citado medio, aquella versión del modelo volvió a estar disponible en agosto para los usuarios de pago.
Desde la empresa tecnológica anunciaron que están trabajando en una actualización que permitiría a ChatGPT identificar las conversaciones que no se basan en la realidad.
De la misma manera, aseguraron, contrataron a un psiquiatra clínico para que ayude a investigar los efectos de los productos de la compañía en la salud mental de los usuarios.
Al ser consultado por Nature sobre este tema, un portavoz de OpenAI declaró que están trabajando para garantizar que ChatGPT responda con cuidado cuando los usuarios interactúan con el modelo “en momentos delicados”.
“El modelo predeterminado de ChatGPT proporciona respuestas más útiles y fiables en estos contextos”, aseguró.
Asimismo, añadió que esperan reforzar y ampliar las protecciones para adolescentes y las intervenciones para personas en crisis.
A principios de septiembre, ChatGPT anunció que a partir de octubre implementarán control parental en el sistema.
Por otro lado, un portavoz de Character Technologies, la firma responsable de Character.AI, dijo al citado medio que la empresa ha seguido desarrollando funciones de seguridad, lo que incluye recursos para prevenir autolesiones y funciones específicas para la seguridad de los menores.
Desde la compañía también han anunciado que modificarán sus modelos para reducir el riesgo de que los menores se encuentren con contenido sensible o sugerente y que recibirán una notificación cuando pasen una hora seguida en la plataforma.
En agosto, Anthropic actualizó las directrices que utiliza para configurar el comportamiento de Claude, para que así el chatbot identifique interacciones problemáticas con mayor antelación y evite que las conversaciones refuercen patrones que puedan significar un peligro.
De acuerdo al Post, la compañía también ha comenzado a colaborar con ThroughLine, una empresa que proporciona infraestructura de apoyo en situaciones de crisis a empresas como Google, Tinder y Discord.
Al ser consultado sobre este mismo tema por el citado periódico, un portavoz de Meta declaró que los padres pueden restringir el tiempo dedicado a chatear con la IA en las cuentas de Instagram de adolescentes.
Agregó que cuando los usuarios intentan sugerencias que parecen estar relacionadas con el suicidio, la empresa intenta mostrar recursos útiles, como el enlace y el número de teléfono de una línea de prevención.
Desde Microsoft detallan en su página web que su chatbot, Copilot, opera de acuerdo con los Principios de IA de la compañía, los cuales “demuestran el compromiso de garantizar que los sistemas de IA se desarrollen de manera responsable y garanticen la confianza de las personas”.
“Hemos diseñado la experiencia de usuario de Copilot para mantener a las personas en el centro y hemos desarrollado protecciones para minimizar errores y evitar usos indebidos. Mejoramos continuamente la experiencia a la vez que garantizamos la privacidad y seguridad de tu IA”, se lee en el sitio.
Cabe destacar que siempre es recomendable acudir a un especialista si tienes dudas sobre tu salud mental.
El Ministerio de Salud de Chile tiene a disposición de la ciudadanía el número telefónico *4141, en caso de tener consultas o inquietudes sobre acciones o intenciones suicidas, tanto propias como de un cercano o cercana. Si siente que necesita ayuda con respecto a este tema puede comunicarse también con Salud Responde al 600-360-7777.
Lo último
Lo más leído
2.
4.
5.
6.
🎉 La Tercera celebra 75 años ✈️ Suscríbete y entra al sorteo por 2 pasajes a Buenos Aires.
Plan digital $990/mes SUSCRÍBETE