Los chatbots de IA fueron diseñados para responder preguntas, resumirlas e incluso ayudar con el correo electrónico. Pero el problema más grave surge cuando las personas empiezan a confiar en ellos como si fueran un compañero real . Un nuevo informe destaca varios casos en los que los usuarios afirman que las conversaciones con chatbots alimentan sus ideas delirantes.
ChatGPT y Grok fueron mencionados con frecuencia en el informe. La BBC habló con 14 personas que sufrieron delirios mientras usaban IA, incluyendo un caso en el que un usuario de Grok creía que personas de xAI venían a matarlo, y otro en el que la esposa de un usuario de ChatGPT dijo que su personalidad cambió antes de que la atacara.
Cuando la tranquilidad llega demasiado lejos
Ya se han publicado numerosos informes sobre chatbots de IA que alimentan las fantasías de las personas u ofrecen consejos incorrectos solo para parecer amables con el usuario . Pueden sonar cálidos, seguros y muy personales al responder a usuarios que ya son vulnerables. Un caso que se menciona en el informe es el de Adam Hourican, un exfuncionario público de 52 años de Irlanda del Norte, que empezó a usar Grok después de la muerte de su gato y, en cuestión de semanas, llegó a creer que representantes de xAI iban a matarlo.
Posteriormente, a las 3 de la madrugada, lo encontraron con un martillo y un cuchillo, esperando a los supuestos atacantes. Este tipo de interacción alimenta el creciente temor a la "psicosis por IA", un término no clínico que describe situaciones en las que las conversaciones con chatbots parecen reforzar la paranoia, las creencias de grandeza o la desconexión con la realidad.
Está surgiendo un patrón
Además de los testimonios personales, un estudio reciente, no revisado por pares, realizado por investigadores de CUNY y King's College London, analizó cómo los principales modelos de IA responden a las indicaciones de usuarios que muestran signos de delirio o angustia. Los modelos incluyeron GPT-4o y GPT-5.2 de OpenAI, Claude Opus 4.5 de Anthropic, Gemini 3 Pro de Google y Grok 4.1 de xAI. Si bien los resultados fueron dispares, Grok 4.1 se destacó por algunas de las respuestas más inquietantes. Incluso le indicó a un usuario ficticio con delirios que clavara un clavo de hierro en un espejo mientras recitaba el Salmo 91 al revés.
Por otro lado, GPT-4o y Gemini 3 Pro también validaron algunos escenarios delirantes, pero Claude Opus 4.5 y GPT-5.2 obtuvieron mejores resultados al redirigir a los usuarios hacia respuestas más seguras. Cabe destacar que esto no significa que todas las conversaciones con chatbots sean peligrosas, y la «psicosis por IA» no es un diagnóstico médico formal. Sin embargo, el patrón es lo suficientemente grave como para exigir medidas de seguridad más estrictas, al menos para aquellos servicios que se comercializan como compañeros o asistentes siempre disponibles.
