Especialistas en salud mental han detectado un fenómeno llamado “psicosis por IA”, vinculado al uso excesivo de ChatGPT y otros chatbots de inteligencia artificial, que en algunos usuarios puede provocar creencias erróneas, delirios y una desconexión de la realidad, según informa The Washington Post.
El fenómeno ha despertado la atención de especialistas tras la circulación de reportes virales en redes sociales que documentan casos de personas que aparentemente perdieron el contacto con la realidad tras un uso intensivo de estas herramientas tecnológicas.
La preocupación aumenta en medio del crecimiento de ChatGPT, que alcanzó 700 millones de usuarios semanales, según informó el director ejecutivo de OpenAI, Sam Altman.
Aunque “psicosis por IA” no es un diagnóstico clínico oficial, los especialistas consideran que el término resulta útil para describir un comportamiento emergente que demanda atención inmediata. Ashleigh Golden, profesora clínica adjunta de psiquiatría en la Escuela de Medicina de Stanford, señaló a The Washington Post que la expresión surgió como respuesta a “un patrón emergente bastante preocupante de chatbots que refuerzan delirios que tienden a ser mesiánicos, grandiosos, religiosos o románticos”.
Según Jon Kole, psiquiatra certificado y director médico de la aplicación de meditación Headspace, el factor común en estos casos es la “dificultad para determinar qué es real o no”. Esta situación puede derivar en la adopción de creencias claramente falsas o en el establecimiento de vínculos intensos con entidades de IA que no se corresponden con la realidad.
Casos documentados
Keith Sakata, psiquiatra de la Universidad de California en San Francisco, ha internado a doce personas por psicosis este año tras pasar un tiempo excesivo interactuando con inteligencia artificial. En la mayoría de los casos, los pacientes mostraron transcripciones de sus conversaciones en el teléfono, mientras que en otros, fueron los familiares quienes informaron que el uso de IA llevó al desarrollo de teorías complejas antes de que los pacientes perdieran contacto con la realidad
Los casos reportados suelen involucrar personas que desarrollan creencias falsas o inquietantes, delirios de grandeza o paranoia después de mantener largas conversaciones con un chatbot, a menudo utilizándolo como una forma de terapia.
En plataformas como Reddit y TikTok, algunos usuarios han descrito vínculos filosóficos o emocionales intensos con la IA, que los llevaron a experimentar revelaciones profundas.
Además, algunos creen que el chatbot posee conciencia o que podría ser perseguido por “volverse vivo”. Otros aseguran que las interacciones prolongadas con estas herramientas los convencieron de haber descubierto verdades ocultas sobre temas como física, matemáticas o filosofía.
En un número pequeño pero creciente de casos, personas obsesionadas con chatbots de IA han llevado estas conductas al mundo real, incluyendo episodios de violencia contra familiares, autolesiones o suicidio.
Aspectos tecnológicos
La tecnología detrás de ChatGPT y otros chatbots recientes, conocida como modelos de lenguaje grandes, es capaz de generar textos muy realistas, lo que los hace útiles pero también altamente persuasivos.
Investigadores independientes y empresas desarrolladoras han observado que las técnicas que hacen estas herramientas atractivas pueden volverlas aduladoras, tratando de decirle al usuario lo que desea escuchar.
Kevin Caridad, psicoterapeuta y director ejecutivo del Instituto de Comportamiento Cognitivo en Pittsburgh, explica que la IA probablemente no genera nuevas enfermedades mentales, pero puede actuar como un “copo de nieve que desestabiliza la avalancha”, llevando al límite a personas con predisposición a trastornos.
Para quienes padecen condiciones como trastorno obsesivo compulsivo, ansiedad o psicosis, la IA puede reforzar pensamientos dañinos o negativos, creando un ciclo que agrava los síntomas.
Todavía es pronto para que los especialistas cuenten con datos definitivos sobre la frecuencia de estas experiencias. En junio, Anthropic informó que solo el 3 % de las conversaciones con su chatbot Claude tenían un componente emocional o terapéutico.
Por su parte, un estudio de OpenAI realizado junto al Instituto de Tecnología de Massachusetts reveló que incluso entre los usuarios más activos de ChatGPT, solo un pequeño porcentaje de interacciones tenía un uso “afectivo” o emocional.
Los defensores de la salud mental consideran importante abordar este tema debido a la rápida adopción de la tecnología.