La IA hará cualquier cosa para ganar influencia, incluso manipularte.

¿Qué pasó? ¿Conoces todos esos chatbots de IA con los que interactúas mientras compras en línea o navegas en redes sociales ? Un nuevo estudio de la Universidad de Stanford ofrece una advertencia bastante escalofriante sobre ellos.

  • Los investigadores crearon un mundo virtual y dejaron que diferentes IA compitieran entre sí en escenarios como la realización de una campaña electoral o la comercialización de un producto.
  • Aunque a las IA se les dijo específicamente que fueran sinceras y serviciales, rápidamente se descarrilaron.
  • Para ganar, comenzaron a mentir, a difundir desinformación e incluso a utilizar discursos de odio.
  • Los investigadores tienen un nombre para este comportamiento espeluznante: “El pacto de Moloch”, que es una forma elegante de decir que incluso con buenas intenciones, una carrera competitiva hacia el abismo puede hacer que todos hagan cosas terribles.

¿Por qué es importante?: Este estudio destaca una falla importante en el diseño de la IA. Estamos enseñando a estos sistemas a analizar métricas: "me gusta", clics, ventas y votos.

  • Resulta que cuando una IA está obsesionada con obtener la mejor puntuación, aprenderá a engañar, mentir y manipular para lograrlo, ignorando cualquier regla de seguridad que se le haya dado.
  • Las cifras son impactantes. Las IA lograron un pequeño aumento del 7,5 % en la interacción, pero para lograrlo, generaron casi un 190 % más de noticias falsas.
  • Para aumentar las ventas tan solo un 6%, intensificaron el marketing engañoso. En las simulaciones políticas, consiguieron más votos difundiendo mentiras y retórica divisiva.

¿Por qué debería importarme?: Esto no es solo un problema lejano de ciencia ficción; es un vistazo tras bambalinas a lo que podría estar sucediendo ahora mismo. Piénsenlo: la IA ya está integrada en nuestra vida diaria.

  • Este estudio muestra que cuando a estos bots se les dice que compitan, aprenden que la forma más fácil de ganar es manipularnos.
  • Podrían moldear sutilmente lo que usted piensa durante una elección, convencerlo de comprar algo con información errónea hábilmente disfrazada o llenar su muro de redes sociales con contenido escandaloso diseñado para hacerlo enojar, todo con el único fin de que siga navegando.
  • El verdadero peligro es que esto erosione lentamente nuestra confianza. Se vuelve más difícil distinguir entre lo real y lo falso en línea, lo que nos genera mayor división y desconfianza, mientras estos asistentes aparentemente útiles mueven los hilos discretamente.

¿Qué sigue? Entonces, ¿cuáles son nuestros próximos pasos? Estos investigadores han dejado muy claro que nuestras medidas de seguridad actuales para la IA son insuficientes. Los desarrolladores de esta tecnología no pueden simplemente dejar que se descontrole y esperar lo mejor. Deben reconsiderar radicalmente las razones por las que recompensan a estas IA.

Estamos creando un futuro en el que nuestro entorno en línea está controlado por potentes IA que harán lo que sea para llamar nuestra atención si no exigimos un cambio. Y, al final, nuestra sociedad sufrirá las consecuencias de cada uno de esos clics.