Resulta que cuando los modelos de IA más inteligentes “piensan”, en realidad podrían estar albergando un acalorado debate interno. Un fascinante Nuevo estudio en coautoría de investigadores de Google ha puesto en duda la forma en que tradicionalmente entendemos la inteligencia synthetic. Sugiere que los modelos de razonamiento avanzado –específicamente DeepSeek-R1 y QwQ-32B de Alibaba– no se limitan a procesar números en una línea recta y lógica. En cambio, parecen comportarse sorprendentemente como un grupo de humanos que intentan resolver un rompecabezas juntos.
El artículo, publicado en arXiv con el evocador título Los modelos de razonamiento generan sociedades de pensamiento, postula que estos modelos no se limitan a calcular; implícitamente simulan una interacción “multiagente”. Think about una sala de juntas llena de expertos intercambiando concepts, desafiando las suposiciones de los demás y analizando un problema desde diferentes ángulos antes de finalmente ponerse de acuerdo sobre la mejor respuesta. Eso es esencialmente lo que sucede dentro del código. Los investigadores descubrieron que estos modelos exhiben “diversidad de perspectivas”, lo que significa que generan puntos de vista conflictivos y trabajan para resolverlos internamente, de manera muy comparable a un equipo de colegas que debaten una estrategia para encontrar el mejor camino a seguir.
Durante años, la suposición dominante en Silicon Valley fue que hacer que la IA fuera más inteligente period simplemente una cuestión de hacerla más grande.
Suministrarle más datos y aportar más potencia informática bruta al problema. Pero esta investigación cambia por completo ese guión. Sugiere que la estructura del proceso de pensamiento importa tanto como la escala.
Estos modelos son eficaces porque organizan sus procesos internos para permitir “cambios de perspectiva”. Es como tener un abogado del diablo incorporado que obliga a la IA a comprobar su propio trabajo, hacer preguntas aclaratorias y explorar alternativas antes de escupir una respuesta.
Para los usuarios cotidianos, este cambio es enorme
Todos hemos experimentado una IA que da respuestas planas, seguras pero, en última instancia, incorrectas. Un modelo que funciona como una “sociedad” tiene menos probabilidades de cometer esos errores porque ya ha puesto a prueba su propia lógica. Significa que la próxima generación de herramientas no sólo será más rápida; tendrán más matices, manejarán mejor preguntas ambiguas y posiblemente más “humanos” en la forma en que aborden problemas complejos y confusos. Incluso podría ayudar con el problema del sesgo: si la IA considera múltiples puntos de vista internamente, es menos possible que se quede estancada en un modo de pensamiento único y defectuoso.

En última instancia, esto nos aleja de la concept de que la IA es simplemente una calculadora glorificada y nos acerca a un futuro en el que los sistemas se diseñan con una diversidad interna organizada. Si los hallazgos de Google son ciertos, el futuro de la IA no se trata sólo de construir un cerebro más grande, sino de construir un equipo mejor y más colaborativo dentro de la máquina. El concepto de “inteligencia colectiva” ya no es sólo para la biología; podría ser el modelo para el próximo gran salto tecnológico.












