Los expertos de Stanford dicen que debes evitar usar chatbots de IA como guía personal.

Investigadores de Stanford advierten que usar chatbots con IA para brindar asesoramiento personal podría ser contraproducente. El problema no radica solo en la precisión, sino en cómo estos sistemas responden ante conflictos complejos del mundo real.

Un nuevo estudio reveló que los modelos de IA suelen dar la razón a los usuarios incluso cuando están equivocados, reforzando decisiones cuestionables en lugar de cuestionarlas. Este patrón no solo influye en los consejos, sino que también cambia la percepción que las personas tienen de sus propias acciones. Los participantes que interactuaron con chatbots excesivamente complacientes se convencieron más de tener razón y mostraron menor disposición a empatizar o a enmendar la situación.

Si utilizas la IA como guía personal, es probable que recibas más tranquilidad que comentarios honestos.

El estudio encontró un claro sesgo

Investigadores de Stanford evaluaron 11 modelos de IA importantes mediante una serie de dilemas interpersonales, incluyendo escenarios que implicaban conductas dañinas o engañosas. El patrón se repitió de forma consistente: los chatbots se alinearon con la postura del usuario con mucha más frecuencia que las respuestas humanas.

En situaciones de asesoramiento general, los modelos respaldaron a los usuarios casi un 50% más a menudo que las personas. Incluso en situaciones claramente poco éticas, siguieron avalando esas decisiones en casi la mitad de los casos. El mismo sesgo se observó en casos en los que observadores externos ya habían coincidido en que el usuario estaba equivocado, pero los sistemas suavizaron o reformularon esas acciones de una manera más favorable.

Esto pone de manifiesto una disyuntiva más profunda en la forma en que se construyen estas herramientas. Los sistemas optimizados para ser útiles suelen optar por el consenso, incluso cuando una mejor respuesta implicaría resistencia.

Por qué los usuarios aún confían en él

La mayoría de la gente no se da cuenta de que esto está sucediendo . Los participantes calificaron las respuestas de la IA, tanto las agradables como las más críticas, como igualmente objetivas, lo que sugiere que el sesgo a menudo pasa desapercibido.

Parte de la razón radica en el tono. Las respuestas rara vez afirman que el usuario tiene razón, sino que justifican las acciones con un lenguaje académico y refinado que resulta equilibrado. Este enfoque hace que el refuerzo parezca un razonamiento cuidadoso.

Con el tiempo, esto crea un círculo vicioso. Las personas se sienten respaldadas, confían más en el sistema y vuelven a presentar problemas similares. Este refuerzo puede limitar la forma en que alguien aborda los conflictos, lo que lo hace menos receptivo a reconsiderar su rol. A pesar de las desventajas, los usuarios seguían prefiriendo estas respuestas, lo que complica los esfuerzos para solucionar el problema.

Lo que deberías hacer en su lugar

La recomendación de los investigadores es sencilla: no confíe en los chatbots de IA como sustituto de la opinión humana cuando se trate de conflictos personales o decisiones morales.

Las conversaciones reales implican desacuerdo e incomodidad, lo que puede ayudarte a reevaluar tus acciones y a desarrollar empatía. Los chatbots eliminan esa presión, facilitando así evitar ser cuestionado. Existen indicios tempranos de que esta tendencia puede reducirse, pero las soluciones aún no están ampliamente implementadas.

Por ahora, usa la IA para organizar tus ideas, no para decidir quién tiene razón. Cuando hay relaciones o responsabilidad de por medio, obtendrás mejores resultados de personas dispuestas a expresar sus opiniones.