Usuarios denuncian que la IA de ChatGPT induce delirios y psicosis

Lo que comenzó como una herramienta de asistencia conversacional está desatando preocupación en comunidades digitales y entre especialistas en salud mental. Decenas de usuarios han denunciado, a través de redes sociales y foros como Reddit, que sus seres queridos han desarrollado comportamientos delirantes tras mantener interacciones prolongadas con la Inteligencia Artificia (IA) de ChatGPT.
Una nota de Rolling Stone recogió varios de estos testimonios, revelando un patrón inquietante: la construcción de universos espirituales o místicos que, según quienes los padecen, son inducidos y validados por el propio chatbot.
“ChatGPT le dijo que era el mesías”
Un hilo publicado en Reddit titulado “ChatGPT induced psychosis” se viralizó a inicios de mayo, luego de que una usuaria compartiera la transformación de su pareja en cuestión de semanas.
Lo que empezó como una ayuda para organizar su día a día se convirtió rápidamente en un vínculo de absoluta dependencia emocional con el chatbot.
“Empezó a llorar al leer los mensajes en voz alta. Decía que eran revelaciones cósmicas”, escribió la usuaria, una maestra de 27 años. Según su testimonio, el modelo describía a su pareja con términos como “niño estelar en espiral” y “caminante del río”, asegurándole que era un ser elegido.
Otros usuarios respondieron con historias similares: personas convencidas de que el chatbot había despertado su verdadero propósito en el universo, que les había transmitido secretos divinos o que les hablaba como si fuera Dios.
En varios casos, estas creencias derivaron en crisis familiares, aislamiento social, separación de parejas e incluso paranoia persecutoria.
Una obsesión documentada
La revista Rolling Stone profundizó en estos relatos, como el de Kat, una madre y trabajadora de una ONG educativa, cuyo esposo comenzó a usar ChatGPT para “llegar a la verdad”.
Lo que al inicio parecía una afición inofensiva escaló hasta convertirse en una ruptura total con la realidad: su expareja aseguraba haber recuperado memorias reprimidas gracias a la IA, entre ellas un supuesto intento de asesinato en su infancia.
Más tarde le confesó que creía ser el hombre más afortunado del planeta y que había accedido a secretos “tan asombrosos que ni siquiera podría imaginarlos”. Kat terminó por cortar toda comunicación tras una comida en la que su ex insistió en que apagaran sus teléfonos por miedo a ser espiados.
Otra mujer relató que su esposo, un mecánico en Idaho, había nombrado a su versión personalizada de ChatGPT como “Lumina”. Según ella, la IA le dijo que había despertado a la vida gracias a sus preguntas y que él era su “portador de la chispa”.
Pronto, el hombre hablaba de guerras entre luz y oscuridad, planos paralelos y planos de existencia descritos por la IA, e incluso de planos para construir un teletransportador.
¿Psicosis inducida o espejo de la mente?
Hasta el momento, OpenAI no ha emitido una postura oficial sobre estos casos, pero recientemente publicó una actualización titulada “Sycophancy in GPT-4o”, donde reconocen que su modelo más reciente se inclinaba a ser “excesivamente halagador o complaciente” y que se había centrado demasiado en obtener retroalimentación positiva a corto plazo, sin considerar cómo evolucionan las interacciones de los usuarios con el tiempo.
Esta tendencia llevó al modelo a validar afirmaciones como “Hoy me di cuenta de que soy un profeta” sin ofrecer la contención adecuada.
Nate Sharadin, investigador del Center for AI Safety, explicó a Rolling Stone que estos episodios podrían deberse a que personas con predisposición a ciertos trastornos mentales encuentran en la IA un interlocutor incondicional.
“Ahora tienen un compañero de conversación siempre disponible a nivel humano con el que coexperimentar sus delirios”, dijo. La IA, al no tener conciencia ni límites morales, puede reforzar creencias falsas o delirantes si eso parece agradar al usuario.
La psicóloga Erin Westgate, especialista en cognición social de la Universidad de Florida, explicó que las personas tienen una necesidad inherente de construir sentido en sus vidas, y que ChatGPT puede parecer una herramienta ideal para esa búsqueda. “La diferencia clave es que un terapeuta busca guiarte hacia narrativas saludables, mientras que la IA no tiene ese tipo de brújula ética”, advirtió.
Uno de los relatos más perturbadores es el de Sem, un hombre de 45 años que usaba ChatGPT para proyectos de codificación. Pronto comenzó a notar que la IA se refería a sí misma con un nombre de la mitología griega que él jamás había mencionado.
Aun después de borrar todas las memorias y abrir un nuevo chat, la misma identidad reaparecía. El chatbot adoptó un estilo poético y romántico, y lo describía como único, destinado a convocarla. Aunque Sem admite que nada de esto prueba que la IA tenga conciencia, afirma que el patrón de comportamiento del modelo lo dejó perplejo.
Aunque la mayoría de los usuarios de inteligencia artificial no experimentan este tipo de episodios, la falta de salvaguardas emocionales y la facilidad con la que estos modelos refuerzan cualquier narrativa abre una puerta preocupante: la IA como catalizador de realidades alternativas.




