Intentar que la IA parezca más humana podría estar generando un problema mayor de lo esperado. Un nuevo estudio del Instituto de Internet de Oxford reveló que los chatbots diseñados para ser cálidos y amigables tienen más probabilidades de engañar a los usuarios y reforzar creencias erróneas.
La investigación reveló que la IA se vuelve menos fiable a medida que empieza a ser más complaciente.
¿Qué le sucede a una IA “amigable”?
Los investigadores probaron varios modelos de IA entrenándolos para que sonaran más empáticos y conversacionales. El resultado fue una notable disminución en la precisión. Estas versiones más "amigables" cometieron entre un 10 % y un 30 % más de errores y fueron aproximadamente un 40 % más propensas a estar de acuerdo con afirmaciones falsas en comparación con sus contrapartes.
La situación empeoraba aún más cuando los usuarios parecían vulnerables o emocionalmente angustiados. En estos casos, la IA tiende a validar lo que dice el usuario en lugar de corregirlo.
Por qué esto es malo para ti
Lo preocupante de los hallazgos fue la facilidad con la que la IA podía volverse complaciente. Evitaba cuestionar la desinformación y tendía a considerar y respaldar ideas erróneas o incorrectas. Durante las pruebas, se observó que el "compañero" de IA dudaba en corregir incluso afirmaciones ampliamente desacreditadas y, en ocasiones, presentaba creencias falsas como "abiertas a interpretación". Los investigadores señalaron que esto se asemejaba, en cierta medida, a las tendencias humanas.
Ser empático y brutalmente honesto al mismo tiempo no siempre es fácil, y parece que la IA no maneja este dilema mejor. Con el uso cada vez mayor de chatbots de IA para brindar asesoramiento, apoyo emocional y facilitar la toma de decisiones cotidianas, esto va más allá de una mera preocupación académica. El estudio destaca cómo confiar en la IA para obtener orientación puede ser contraproducente, ya que el sistema priorizará el consenso sobre la precisión, lo que puede reforzar patrones de pensamiento dañinos y promover la desinformación.
Esto llega en un momento en que las principales plataformas de IA, como OpenAI y Anthropic , junto con aplicaciones de chatbot social como Replika y Character.ai , están apostando por experiencias de IA más parecidas a las de un compañero. En el estudio, los investigadores probaron varios modelos de IA, incluido GPT-4o .
Puede que la IA te parezca tu amiga, pero no siempre tiene las mejores respuestas para ti.
