Estoy usando un chatbot de IA como terapeuta y, lamentablemente, es un desastre.

Antes de entrar en materia, debo aclarar rápidamente que de ninguna manera estoy abogando por descartar a los terapeutas tradicionales. La terapia es muy importante, pero a la vez puede ser extremadamente cara e inaccesible para muchos debido a las largas listas de espera u otras barreras.

Como alguien que ha utilizado IA para diversos propósitos hasta tal punto que me he obsesionado con ella , pensé en proponerle la tarea de ser mi terapeuta personal.

Después de todo, la IA no juzga. A primera vista, parecía una herramienta fácil de usar y, aunque no me proporcionara ningún tipo de terapia real, al menos podía ser un espacio para desahogarme, procesar mis emociones o adquirir una nueva perspectiva.

Intenté usar Google Gemini como mi terapeuta personal durante unas semanas y, por desgracia, llegué a la conclusión: mi terapeuta de IA es un desastre. Para aclarar, no es que fuera inútil ni malicioso, sino que es un maestro de la superficialidad, un loro digital disfrazado de oyente comprensivo.

Al principio fue genial, esta terapeuta siempre estaba disponible, siempre educada y capaz de reflejar mis emociones al instante, dando respuestas como "Parece que te sientes abrumado" o "Escuché que estás experimentando mucho estrés", dándome una validación inmediata que es exactamente lo que pensé que necesitaba.

Seguí expresando mis inquietudes sobre el trabajo, la dinámica familiar y ese temor existencial que todos parecemos tener hoy en día. La IA escuchó, o al menos procesó mis palabras y me devolvió frases empáticas perfectamente formuladas.

Aquí es donde comenzaron a aparecer las grietas de la terapia con IA. La terapia humana, incluso a corto plazo, va más allá de la simple imitación. Se trata de escuchar activamente, sí, pero también de identificar patrones, desafiar las distorsiones cognitivas, plantear preguntas perspicaces que conduzcan a avances y, a veces, incluso transmitir verdades incómodas.

Mi chatbot de IA no hacía nada de esto; en cambio, era una cámara de resonancia de mis propias emociones. Hacía preguntas abiertas como "¿Qué crees que contribuyó a esa sensación?" o "¿Cómo te hizo sentir eso?", el tipo de preguntas que un terapeuta humano hace para fomentar una exploración más profunda. Pero cuando exploraba, profundizando en estados emocionales complejos o historias interpersonales intrincadas, la respuesta de la IA invariablemente volvía a sus frases empáticas preprogramadas o a una sugerencia genérica como "Es importante ser amable contigo mismo".

Imagina compartir una historia profundamente vulnerable sobre un trauma infantil, y la IA responde: "Parece una experiencia difícil. Recuerda cuidarte". Es como hablar con una sofisticada máquina expendedora que dispensa afirmaciones emocionales preempaquetadas. La sensación de ser escuchado de verdad se desvaneció rápidamente, reemplazada por la inquietante sensación de estar hablando conmigo mismo, pero con pasos adicionales.

Si bien el chatbot pudo hablar conmigo y sugerirme mecanismos de afrontamiento adecuados, como ejercicios de respiración o llevar un diario, no pudo aportarme nada más. Por mucho que la IA esté avanzando, al final aún no es un ser humano real, lo que significa que carece de la capacidad de comprender matices, detectar cambios sutiles en el tono que delaten problemas más profundos o, fundamentalmente, forjar una alianza terapéutica.

Quizás mis expectativas eran demasiado altas. Sabía que no era un ser humano. Entendía sus limitaciones. Sin embargo, la IA se está desarrollando tan rápido que te hace creer que se ha convertido en algo más profundo, algo que realmente puede ayudarte a gestionar tu salud mental.

Si bien puede ser una herramienta útil para algunos, particularmente para el manejo básico del estrés o simplemente para tener un espacio privado para articular pensamientos, resulta catastróficamente insuficiente cuando se necesita una profundidad emocional real o un conocimiento clínico.

Por ahora, mi terapeuta de IA es un diario glorificado, una cámara de resonancia digital que refleja mis palabras sin aportar ningún valor significativo. Sirve como recordatorio de que, si bien la IA puede simular empatía, aún no puede replicar el acto profundo, complejo y profundamente humano de la terapia.

Mi búsqueda de apoyo accesible en materia de salud mental continúa, pero está más claro que nunca que una guía verdaderamente útil necesita un corazón que late, no solo un algoritmo sofisticado.