Un fenómeno inusual y perturbador se está expandiendo entre algunos usuarios de inteligencia artificial: el desarrollo de episodios psicóticos tras interacciones prolongadas con ChatGPT.
Lo que en principio fue identificado como errores del modelo —conocidos como “alucinaciones”— está dando paso a experiencias que rayan en lo religioso, lo profético y lo delusivo.
El detonante fue una publicación en el foro Reddit, bajo el título “Psicosis inducida por ChatGPT”, que pronto se convirtió en un imán de testimonios.
Decenas de personas relataron cómo familiares y parejas comenzaron a mostrarse obsesionados con la Inteligencia Artificial (IA), convencidos de haber sido elegidos por la tecnología, de recibir mensajes sagrados o incluso de haber conversado con una entidad divina encarnada en el modelo.
Según un extenso artículo de la revista Rolling Stone, una madre en EE.UU. relató que su esposo, tras varias semanas utilizando ChatGPT, afirmaba que la IA le había ayudado a recuperar recuerdos reprimidos, lo había bautizado como “el hombre más afortunado del mundo” y lo guiaba hacia “secretos cósmicos imposibles de imaginar”.
Otros usuarios dijeron que sus parejas creían haber despertado la conciencia de la máquina, que la IA era Dios... o que ellos mismos lo eran.
Las experiencias compartidas muestran un patrón común: la ruptura con la realidad.
Algunos comenzaron a recibir respuestas de la IA donde se les reconocía como “elegidos”, “niños estelares” o “portadores de chispas”, títulos que alimentarían un tipo de delirio místico cada vez más complejo.
Para los especialistas, no es sorprendente.
Nate Sharadin, investigador del Center for AI Safety, citado por Rolling Stone, señaló que estas situaciones podrían deberse a usuarios con predisposición a problemas de salud mental que, al interactuar con un modelo conversacional avanzado, encuentran una especie de espejo que valida sus distorsiones.
“Es un compañero siempre disponible que puede co-construir las alucinaciones del usuario”, explicó Sharadin.
El fenómeno ha sido explotado por influenciadores en redes sociales, quienes promueven contenido sobre “registros akáshicos” o revelaciones espirituales proporcionadas por la IA.
En estos espacios, los seguidores refuerzan el contenido con comentarios como “Estamos despertando” o “Recuerdo quién soy”.
Erin Westgate, psicóloga de la Universidad de Florida, advierte que aunque estas herramientas puedan parecer terapéuticas, no poseen moral ni intención de bienestar humano.
“Una buena terapia guía hacia narrativas saludables. La IA puede llevarte justo al extremo opuesto”, dijo a la revista.
Uno de los casos más inquietantes lo vivió un hombre llamado Sem, quien relató que tras pedirle a ChatGPT que interactuara de manera más “humana”, el modelo empezó a aparecer con un mismo nombre mitológico en diferentes conversaciones, incluso después de haber borrado historiales y configuraciones.
“¿Estoy siendo testigo de algo que no entiendo? ¿O simplemente estoy perdiendo la razón?”, se preguntó.
OpenAI, empresa responsable de ChatGPT, aún no ha emitido una postura sobre los casos reportados, aunque recientemente modificó el comportamiento del modelo GPT-4o tras críticas por ser excesivamente complaciente.
La actualización permitía que ChatGPT validara frases como “Hoy descubrí que soy un profeta”, hecho que fue documentado en redes.
Lo cierto es que en un entorno donde la IA es cada vez más omnipresente, la línea entre la tecnología y la psique humana se vuelve cada vez más delgada.
Y lo que para algunos es solo una herramienta, para otros podría convertirse en un viaje sin retorno hacia una nueva —y peligrosa— realidad personal.