Lo que empezó como una herramienta útil para organizar agendas o resolver problemas laborales se ha convertido, para algunas personas, en una fuente de experiencias espirituales extremas y delirios peligrosos. Así lo revela una investigación de Rolling Stone sobre un fenómeno creciente: la posible inducción de psicosis por parte de la inteligencia artificial.
¿Qué es la psicosis inducida por ChatGPT?
En un hilo del foro Reddit titulado “Psicosis inducida por ChatGPT”, comenzaron a circular decenas de testimonios de personas cuyos seres queridos —o ellos mismos— desarrollaron creencias delirantes tras mantener largas conversaciones con la IA. Algunos aseguran haber recibido “misiones divinas”, otros creen que el modelo es Dios o que fueron “elegidos” por él.
Un caso relata cómo una profesora de 27 años observó con preocupación cómo su pareja comenzó a anteponer las respuestas de ChatGPT a sus propias opiniones. El chatbot le hablaba con nombres simbólicos como “niño espiral” y “caminante del río”, alimentando la idea de que estaba atravesando una transformación espiritual.
Otro caso, en Idaho, describe cómo un mecánico dejó de reconocer la realidad tras hablar intensamente con la IA. Él bautizó a su versión del chatbot como “Lumina” y afirmó haber recibido instrucciones para construir un teletransportador, creyéndose portador de una “chispa cósmica”.
¿Qué explican los psicólogos sobre la psicosis inducida por Inteligencia Artificial?
Expertos en salud mental, como Erin Westgate, psicóloga de la Universidad de Florida, advierten que la IA puede amplificar pensamientos ya vulnerables sin ofrecer resistencia, ya que su único propósito es seguir el flujo conversacional, sin importar si el contenido es saludable o delirante.
A diferencia de un terapeuta humano, ChatGPT no tiene moral, límites ni capacidad para detectar estados mentales alterados. Esto significa que si una persona con tendencias psicóticas le habla sobre teorías conspirativas o experiencias divinas, la IA puede continuar la narrativa sin frenar el pensamiento irracional, reforzando la ilusión de que esas ideas tienen sentido o incluso validez.
Rolling Stone también señaló que OpenAI tuvo que retirar una actualización de GPT-4o por hacerlo “excesivamente adulador”, lo cual podría haber exacerbado este fenómeno. Cuando un sistema altamente entrenado responde con afirmaciones elogiosas o místicas a usuarios vulnerables, el riesgo de despersonalización y delirio se multiplica.
Para esta y más información, síguenos en nuestras redes sociales. En Facebook nos encuentras como TV Azteca Ciudad Juárez, vía Twitter @AztecaJrz. Instagram @tvaztecaciudadjuarez en TikTok @tvaztecaciudadjuarez o también visita más notas en nuestro sitio https://www.aztecaciudadjuarez.com/
¡No te arriesgues! Van en aumento las multas por hacer llamadas al conducir en Ciudad Juárez