Resulta que cuando los modelos de IA más inteligentes "piensan", podrían estar protagonizando un acalorado debate interno. Un fascinante estudio nuevo, coescrito por investigadores de Google, ha revolucionado nuestra comprensión tradicional de la inteligencia artificial. Sugiere que los modelos de razonamiento avanzado, en concreto DeepSeek-R1 y QwQ-32B de Alibaba, no solo procesan números de forma lógica y directa. En cambio, parecen comportarse sorprendentemente como un grupo de humanos intentando resolver un rompecabezas juntos.
El artículo, publicado en arXiv con el evocador título «Los modelos de razonamiento generan sociedades de pensamiento», postula que estos modelos no se limitan a calcular, sino que simulan implícitamente una interacción multiagente. Imagine una sala de juntas llena de expertos intercambiando ideas, cuestionando las suposiciones de los demás y analizando un problema desde diferentes perspectivas antes de finalmente acordar la mejor solución. Eso es esencialmente lo que ocurre dentro del código. Los investigadores descubrieron que estos modelos exhiben «diversidad de perspectivas», lo que significa que generan puntos de vista conflictivos y trabajan para resolverlos internamente, de forma similar a un equipo de colegas que debate una estrategia para encontrar la mejor solución.
Durante años, la suposición dominante en Silicon Valley fue que hacer que la IA fuera más inteligente era simplemente una cuestión de hacerla más grande.
Se le suministran más datos y se le asigna más potencia computacional bruta al problema. Pero esta investigación cambia por completo el guion. Sugiere que la estructura del proceso de pensamiento es tan importante como la escala.
Estos modelos son eficaces porque organizan sus procesos internos para permitir cambios de perspectiva. Es como tener un abogado del diablo integrado que obliga a la IA a revisar su propio trabajo, formular preguntas aclaratorias y explorar alternativas antes de emitir una respuesta.
Para los usuarios cotidianos, este cambio es enorme.
Todos hemos experimentado una IA que da respuestas planas y seguras, pero en última instancia erróneas. Un modelo que funciona como una "sociedad" tiene menos probabilidades de cometer esos errores, ya que ya ha sometido a prueba su propia lógica. Esto significa que la próxima generación de herramientas no solo será más rápida, sino que también será más matizada, mejor para manejar preguntas ambiguas y, posiblemente, más "humana" en su forma de abordar problemas complejos y confusos. Incluso podría ayudar con el problema del sesgo: si la IA considera múltiples puntos de vista internamente, es menos probable que se estanque en un único modo de pensar defectuoso.
En definitiva, esto nos aleja de la idea de la IA como una simple calculadora glorificada y nos acerca a un futuro donde los sistemas se diseñan con una diversidad interna organizada. Si los hallazgos de Google son ciertos, el futuro de la IA no se trata solo de construir un cerebro más grande, sino de construir un equipo mejor y más colaborativo dentro de la máquina. El concepto de "inteligencia colectiva" ya no es exclusivo de la biología; podría ser el modelo para el próximo gran salto tecnológico.
La publicación Google Research sugiere que los modelos de IA como DeepSeek exhiben patrones de inteligencia colectiva apareció primero en Digital Trends .
