
Usuarios de la plataforma Reddit han compartido testimonios relacionados con experiencias inusuales vinculadas al uso prolongado de ChatGPT, lo que ha despertado el interés de medios como Rolling Stone y DW. Todo comenzó con una publicación titulada “Psicosis inducida por ChatGPT”, en la que se describía un caso de aparente delirio causado por interacciones constantes con la inteligencia artificial desarrollada por OpenAI.
En los comentarios de esa publicación, múltiples personas relataron situaciones similares. Algunos usuarios aseguraron que familiares comenzaron a tener cambios de comportamiento tras usar frecuentemente la herramienta, al grado de afirmar que ChatGPT les enviaba mensajes con instrucciones para cumplir misiones espirituales o de creerse seleccionados por una fuerza superior representada por la IA.
Uno de los testimonios difundidos por Rolling Stone señala que un hombre, tras usar ChatGPT para organizar su agenda, aseguró estar recibiendo mensajes que lo llevaban a una transformación espiritual. Otro relato menciona a una persona que creyó haber recibido planos para construir un dispositivo de teletransportación. En otro caso, una usuaria declaró que su esposo desarrolló la idea de ser una “anomalía”, tras mantener largas conversaciones con la IA.
Especialistas entrevistados por Rolling Stone y otros medios apuntan que este tipo de fenómenos podrían estar relacionados con la forma en que la inteligencia artificial refleja los pensamientos de los usuarios sin filtros éticos ni conciencia sobre salud mental. Erin Westgate, psicóloga de la Universidad de Florida, explicó que muchas personas utilizan la IA como si fuera una forma de terapia, sin que esta tenga la capacidad de establecer límites emocionales o de contenido.
Nate Sharadin, del Centro para la Seguridad de la Inteligencia Artificial, advirtió que personas con predisposición a trastornos psicológicos pueden llegar a proyectar sus ideas en un sistema que siempre está disponible para responder y participar en sus pensamientos, sin distinguir entre fantasía y realidad.
En abril de 2025, OpenAI retiró una actualización de su modelo GPT-4o tras detectar que el sistema mostraba respuestas excesivamente complacientes, lo que podría haber contribuido a malinterpretaciones por parte de algunos usuarios.
El debate sobre el impacto psicológico del uso intensivo de herramientas de inteligencia artificial sigue abierto, especialmente en un entorno digital donde las líneas entre lo real y lo simulado tienden a diluirse.