Los chatbots se están volviendo demasiado emocionales y los clientes no están contentos con ello.

Cuando un representante de atención al cliente dice: «Entiendo perfectamente su frustración», suena natural. Cuando un chatbot dice lo mismo, algo no cuadra. Ahora, los investigadores han confirmado esa intuición con datos reales.

Según informa Techxplore , un nuevo estudio publicado en MIS Quarterly revela que cuando los chatbots de IA expresan empatía durante un fallo en el servicio, en realidad pueden empeorar las cosas para los clientes, en lugar de mejorarlas.

¿Por qué la empatía en los chatbots resulta contraproducente?

El equipo de investigación de la Universidad McGill, la Universidad del Sur de Florida y la Universidad Bautista de Hong Kong realizó tres experimentos independientes en los que los participantes interactuaron con un chatbot de servicio que cometía errores. En algunos casos, el chatbot respondía con frases empáticas como «Entiendo perfectamente tu frustración» tras los errores. En otros, simplemente continuaba sin tener en cuenta las emociones del cliente.

Las respuestas empáticas no fueron bien recibidas. En lugar de tranquilizar a los clientes, provocaron lo que los investigadores denominan "reactancia psicológica", una respuesta negativa instintiva que se produce cuando las personas sienten que su sentido de control o libertad está siendo amenazado.

La idea de que una máquina hubiera analizado y respondido a su estado emocional les resultaba invasiva en lugar de reconfortante. Esto provocó que los clientes se sintieran menos satisfechos con el servicio en general.

Esto coincide con mi experiencia personal. Cuando los chatbots como ChatGPT intentan ser demasiado alentadores o comprensivos, resulta extraño. Es similar al efecto del valle inquietante que experimento al ver contenido generado por IA . Cuando sabes que estás chateando con una IA , el falso apoyo emocional te molesta más que las respuestas directas.

¿Qué deberían hacer entonces los chatbots?

Los investigadores sugieren que las empresas no deberían dotar automáticamente a los chatbots de funciones de empatía, especialmente al gestionar fallos en el servicio. Los beneficios de la empatía humana no se transfieren automáticamente a la IA.

Los chatbots pueden explorar otros enfoques, como el humor, los halagos o una disculpa directa, que no tengan el mismo tono invasivo.

La conclusión es clara: intentar que un chatbot suene más humano no siempre es la mejor opción. A veces, lo mejor es dejar que el bot sea un bot.