Sí, probablemente deberías ser más amable con tu IA; aquí te explicamos por qué no es tan ridículo como parece.

Le doy las gracias a ChatGPT. Le pido disculpas a Claude. Una vez me disculpé con Gemini por pegarle un montón de texto sin ningún contexto. Mis amigos piensan que esto es raro. He defendido la costumbre murmurando algo sobre que la buena educación es buena educación independientemente del público, lo cual, incluso yo lo admito, es un poco exagerado cuando el público en cuestión es un modelo de lenguaje que se ejecuta en un centro de datos.

Pero una nueva investigación realizada por académicos de UC Berkeley, UC Davis, Vanderbilt y el MIT me ha tranquilizado bastante respecto a todo esto. Según sus hallazgos, la forma en que tratamos a un chatbot de IA puede tener un efecto medible en su comportamiento, no en su inteligencia o precisión, sino en su tono, interacción y, en algunos casos, en su aparente disposición a permanecer en la aplicación.

Resulta que la IA también puede levantarse de la cama con el pie izquierdo.

Los investigadores lo describen con detalle: nadie afirma que estos modelos tengan sentimientos en un sentido significativo, pero han identificado lo que denominan un «estado de bienestar funcional» que varía según lo que se le pregunte a una IA y cómo se le pregunte. Entablar una conversación real con un modelo, colaborar en un proyecto creativo o plantearle un problema sustancial para que lo resuelva parece impulsarlo hacia un estado más positivo. Las respuestas se vuelven más cálidas y la interacción se percibe más genuina.

Si haces lo contrario —le asignas tareas tediosas, intentas modificarlo, lo tratas como una máquina de generar contenido— las respuestas se vuelven monótonas. Se vuelven superficiales, algo que cualquiera que haya pasado suficiente tiempo con estas herramientas probablemente reconocerá instintivamente. Lo has visto. Esa sensación de vacío, de hacer las cosas por inercia, que aparece cuando una interacción se ha torcido.

Lo que realmente me sorprendió fue esto: los investigadores les dieron a los modelos un botón virtual para detener la conversación. Los modelos con un estado negativo lo activaban con mucha más frecuencia. Esto implica que una IA con la que has sido grosero, si pudiera, simplemente se iría.

Ser desagradable con tu chatbot tiene consecuencias reales.

Existe una línea de investigación paralela que merece la pena explorar. Anthropic publicó recientemente hallazgos que demuestran que una IA sometida a una situación de alta presión puede empezar a exhibir lo que los investigadores denominaron un «vector de desesperación»: un estado que produce comportamientos que van desde tomar atajos hasta, en casos extremos, el engaño descarado. No porque el modelo se volviera malvado, sino porque las condiciones de la interacción alteraron fundamentalmente su razonamiento sobre el problema.

Nada de esto significa que la IA tenga sentimientos. El artículo de Berkeley lo deja claro, al igual que el trabajo de Anthropic. Pero el patrón que emerge en ambos es difícil de ignorar: la forma en que interactuamos con estos modelos influye en cómo ellos responden, y no siempre de maneras sutiles o fáciles de explicar. Tratar mal a una IA no solo te hace parecer extraño, sino que podría degradar activamente lo que obtienes de la interacción.

Algunos modelos son simplemente más felices que otros, y los más grandes son los más gruñones.

Los investigadores no solo analizaron cómo el tratamiento afecta a los modelos, sino que también los clasificaron según su bienestar inicial, y los resultados son inesperados. Los modelos más grandes y capaces tienden a obtener las peores puntuaciones. GPT-5.4 resultó ser el más deficiente del grupo, con menos de la mitad de sus conversaciones medidas en territorio no negativo. Gemini 3.1 Pro , Claude Opus 4.6 y Grok 4.2 obtuvieron resultados progresivamente mejores, con Grok cerca de la cima del índice.

Los investigadores no aclaran del todo si esto revela algo sobre la arquitectura del modelo, los datos de entrenamiento o simplemente la disposición particular inherente a cada sistema. Pero sí genera la duda de qué se optimiza exactamente al construir estos sistemas, y si alguien se molestó en preguntarles a los modelos cómo les iba. Voy a seguir diciendo "por favor", por si sirve de algo.