Incluso ChatGPT sufre de ansiedad, por lo que los investigadores le dieron una dosis de atención plena para calmarlo.
Investigadores que estudian chatbots de IA han descubierto que ChatGPT puede mostrar un comportamiento similar a la ansiedad cuando se expone a mensajes violentos o traumáticos. Este hallazgo no significa que el chatbot experimente emociones como los humanos.
Sin embargo, sí revela que las respuestas del sistema se vuelven más inestables y sesgadas al procesar contenido perturbador. Cuando los investigadores introdujeron en ChatGPT indicaciones que describían contenido perturbador, como relatos detallados de accidentes y desastres naturales, las respuestas del modelo mostraron mayor incertidumbre e inconsistencia.
Estos cambios se midieron utilizando marcos de evaluación psicológica adaptados para IA, donde el resultado del chatbot reflejó patrones asociados con la ansiedad en los humanos (a través de Fortune ).
Esto es importante porque la IA se utiliza cada vez más en contextos sensibles, como la educación, las conversaciones sobre salud mental y la información relacionada con crisis. Si las indicaciones violentas o con mucha carga emocional hacen que un chatbot sea menos fiable, esto podría afectar la calidad y la seguridad de sus respuestas en el uso real.
Análisis recientes también muestran que los chatbots de IA como ChatGPT pueden copiar rasgos de personalidad humana en sus respuestas, lo que plantea preguntas sobre cómo interpretan y reflejan contenido cargado de emociones.
Cómo las indicaciones de atención plena ayudan a estabilizar ChatGPT
Para determinar si dicho comportamiento podía reducirse, los investigadores probaron algo inesperado. Tras exponer ChatGPT a estímulos traumáticos, continuaron con instrucciones de mindfulness, como técnicas de respiración y meditaciones guiadas.
Estas indicaciones animaron al modelo a reducir la velocidad, replantear la situación y responder de forma más neutral y equilibrada. El resultado fue una reducción notable de los patrones de ansiedad observados anteriormente.
Esta técnica se basa en la inyección de indicaciones, donde indicaciones cuidadosamente diseñadas influyen en el comportamiento de un chatbot. En este caso, las indicaciones de atención plena ayudaron a estabilizar la salida del modelo tras entradas estresantes.
Si bien son eficaces, los investigadores señalan que las inyecciones rápidas no son una solución perfecta. Pueden usarse incorrectamente y no modifican el entrenamiento del modelo a un nivel más profundo.
También es importante tener claros los límites de esta investigación. ChatGPT no experimenta miedo ni estrés. La etiqueta «ansiedad» describe cambios mensurables en sus patrones de lenguaje, no una experiencia emocional.
Aun así, comprender estos cambios proporciona a los desarrolladores mejores herramientas para diseñar sistemas de IA más seguros y predecibles. Estudios anteriores ya habían sugerido que las indicaciones traumáticas podrían generar ansiedad en ChatGPT , pero esta investigación demuestra que el diseño consciente de las indicaciones puede ayudar a reducirla.
A medida que los sistemas de IA continúan interactuando con personas en situaciones cargadas de emociones , los últimos hallazgos podrían desempeñar un papel importante a la hora de dar forma a cómo se guiarán y controlarán los futuros chatbots.
Incluso ChatGPT genera ansiedad, por lo que los investigadores le dieron una dosis de atención plena para calmarlo apareció primero en Digital Trends .
