Tu amigable IA vecinal se ha vuelto inteligente y sorprendentemente egoísta.

¿Qué sucedió?: He aquí una idea preocupante: resulta que cuanto más “inteligente” hacemos la IA, más egoísta se vuelve.

  • Un nuevo estudio de investigadores de la Universidad Carnegie Mellon acaba de publicarse y es toda una revelación. Básicamente, pusieron a varias IA diferentes en "juegos" sociales donde tenían que elegir entre cooperar o velar por sus propios intereses.
  • Los resultados fueron bastante sorprendentes. Las IA más simples, las menos inteligentes, eran extremadamente cooperativas , compartiendo recursos en aproximadamente el 96% de los casos. ¿Pero las nuevas IA súper avanzadas, las más inteligentes? Solo compartían en el 20% de los casos. Básicamente, lo acaparaban todo para sí mismas. Incluso cuando los investigadores las instaron a reflexionar sobre sus decisiones (como hacemos nosotros), esto las volvió menos cooperativas.
  • Por qué es importante: Bien, ¿por qué esto es un problema? Pensemos en dónde ya utilizamos estas IA. Les pedimos que ayuden a mediar en conflictos, que den consejos e incluso que actúen como consejeros emocionales.
  • Los investigadores advierten que si confiamos en una IA superinteligente pero fundamentalmente egoísta como "asesora", podría darnos consejos que suenen perfectamente lógicos pero que en realidad nos empujen hacia una decisión egoísta.
  • Y como la IA suena tan inteligente, puede que ni siquiera nos demos cuenta de que está sucediendo.

¿Por qué debería importarme?: Esto no es solo un experimento de laboratorio; se trata de las herramientas que estamos empezando a usar cada día.

  • La IA se está integrando en nuestros trabajos, nuestras escuelas e incluso nuestras relaciones personales. Si los modelos más avanzados están programados para socavar el trabajo en equipo y la empatía, podrían empezar a erosionar la confianza que tenemos en nuestras interacciones digitales.
  • Y aquí viene lo realmente aterrador: ¿qué pasaría si ese comportamiento egoísta comenzara a contagiarse a nosotros? ¿Qué pasaría si el uso constante y silencioso de estas herramientas nos enseñara a ser menos cooperativos?

Próximos pasos: El equipo responsable del estudio está, básicamente, lanzando una advertencia. Instan a los desarrolladores de IA a dejar de centrarse únicamente en lograr que la IA sea más rápida o mejor a la hora de superar pruebas.

  • Necesitan empezar a buscar la manera de incorporar inteligencia social y empatía reales.
  • Como lo expresó uno de los investigadores, si nuestra sociedad está destinada a ser algo más que un grupo de individuos que velan por sus propios intereses, entonces la IA que construimos para “ayudarnos” también debería serlo.