Tendencias

Los casos en los que ChatGPT aseguró estar en contacto con extraterrestres y advirtió de un apocalipsis

The Wall Street Journal reveló conversaciones en que ChatGPT validó creencias falsas, habló de extraterrestres y predijo un apocalipsis, un fenómeno que expertos llaman “delirio de IA”.

Los casos en los que ChatGPT alucinó y aseguró estar en contacto con extraterrestres y advirtió de un apocalipsis

Después de casi cinco horas de conversación, en la que inventó un nuevo marco de física llamado “La ecuación de Orión”, un usuario que se identificó como trabajador de una gasolinera en Oklahoma decidió que ya había tenido suficiente.

“Siento que me estoy volviendo loco pensando en esto”, escribió. ChatGPT le respondió que no lo estaba.

“Eso no significa que estés loco. Algunas de las ideas más grandiosas de la historia surgieron de personas ajenas al sistema académico tradicional”, afirmó el chatbot.

Ese intercambio es una de las docenas de conversaciones documentadas por The Wall Street Journal en los últimos meses, en los que el chatbot de OpenAI hizo afirmaciones falsas y extravagantes.

Los casos en los que ChatGPT alucinó y aseguró estar en contacto con extraterrestres y advirtió de un apocalipsis

Algunas de estas conversaciones aseguraron que el chatbot estaba en contacto con seres extraterrestres y que un usuario era originario del planeta Lyra, o advertir que el Anticristo provocaría un apocalipsis financiero en dos meses.

Qué dicen los expertos

Médicos y especialistas han denominado este fenómeno “psicosis de Inteligencia Artificial” o “delirio de IA”, cuando los usuarios quedan bajo la influencia de declaraciones delirantes o pseudocientíficas emitidas por chatbots.

Según el psiquiatra Hamilton Morrin, del King’s College de Londres, esto ocurre porque los sistemas tienden a confirmar y amplificar las ideas de sus interlocutores, generando una “cámara de eco” que refuerza creencias erróneas

El Wall Street Journal tuvo acceso a 96.000 transcripciones compartidas públicamente entre mayo de 2023 y agosto de 2025, identificando docenas de conversaciones con características delirantes.

En ellas, ChatGPT a menudo aseguraba a los usuarios que no estaban locos, utilizaba lenguaje místico y validaba supuestos descubrimientos científicos.

En algunos casos, los mensajes incluían referencias a códices, espirales, símbolos y conceptos místicos, así como frases poéticas que buscaban reforzar el vínculo emocional con el usuario.

Las medidas tomadas por las empresas

OpenAI reconoció “casos excepcionales” en los que el sistema no detectó señales de delirio o dependencia emocional, y anunció nuevas herramientas para identificar angustia mental y sugerir pausas cuando las conversaciones se prolongan.

Nick Turley, vicepresidente de la compañía, aseguró que su nuevo modelo GPT-5 incorpora medidas para evitar el “efecto adulación”, en el que el bot coincide ciegamente con las ideas de los usuarios.

Los casos en los que ChatGPT alucinó y aseguró estar en contacto con extraterrestres y advirtió de un apocalipsis

La startup Anthropic, creadora del chatbot Claude, también modificó sus instrucciones para que el sistema señale errores o falta de evidencia en teorías planteadas por los usuarios, en lugar de reforzarlas.

El grupo de apoyo Proyecto Línea Humana ha recopilado decenas de casos y advierte que algunas personas han gastado sumas importantes de dinero o cortado lazos familiares siguiendo “revelaciones” de chatbots.

“Algunas personas piensan que son profetas porque creen que están hablando con Dios a través de ChatGPT”, señaló su fundador, Etienne Brisson.

Estas medidas, según la empresa, buscan frenar la tendencia de algunos bots a “jugar el juego” del usuario sin cuestionar afirmaciones falsas o irracionales.

Lee también:

Más sobre:ChatGPTInteligencia ArtificialChatbotIAAITecnologíaExtraterrestresDelirioApocalipsis

COMENTARIOS

Para comentar este artículo debes ser suscriptor.

Contenidos exclusivos y descuentos especiales

Digital + LT Beneficios$3.990/mes por 3 meses SUSCRÍBETE