La próxima explosión de inteligencia no será una sola mente: será una sociedad

La próxima explosión de inteligencia no será una sola mente: será una sociedad

Un artículo publicado en arXiv por investigadores de Google, la Universidad de Chicago y el Santa Fe Institute desafía una de las ideas más arraigadas en el debate sobre inteligencia artificial: la de la singularidad tecnológica como un único sistema omnisciente que supera a la humanidad. En su lugar, proponen que la próxima gran explosión de inteligencia será plural, social e híbrida.

La singularidad como mito

Durante décadas, el imaginario tecnológico ha proyectado el futuro de la IA como una mente colosal que se mejora a sí misma hasta alcanzar una inteligencia sobrehumana e incontrolable. Los autores James Evans, Benjamin Bratton y Blaise Agüera y Arcas argumentan que esta visión parte de un error de base: asumir que la inteligencia es una magnitud individual y escalar, cuando en realidad es relacional y colectiva.

El argumento no es especulativo. Se apoya en evidencia empírica reciente: modelos de razonamiento como DeepSeek-R1 y QwQ-32B, al ser entrenados únicamente para maximizar precisión, desarrollan espontáneamente lo que los autores denominan una «sociedad del pensamiento»: debates internos entre perspectivas cognitivas distintas que argumentan, cuestionan y verifican. Nadie programó ese comportamiento; emergió solo.

Inteligencia como fenómeno social

El paper traza una línea histórica consistente: cada gran salto cognitivo de la humanidad ha sido colectivo, no individual. La inteligencia primate creció con el tamaño del grupo social; el lenguaje permitió acumular conocimiento entre generaciones; la escritura y las instituciones externalizaron esa inteligencia en infraestructura duradera. Los modelos de lenguaje, argumentan los autores, son la siguiente iteración de ese mismo proceso: el residuo comprimido de siglos de intercambio comunicativo humano, ahora activo en silicio.

El modelo centauro y la escala institucional

La consecuencia práctica de esta visión es que el futuro no son máquinas reemplazando personas, sino configuraciones híbridas en constante recomposición: un humano coordinando múltiples agentes, un agente sirviendo a múltiples humanos, o equipos mixtos colaborando en estructuras cambiantes. Los autores llaman a estos actores compuestos «centauros».

A esa escala, el problema de alineación también cambia. El paradigma dominante, el aprendizaje por refuerzo con retroalimentación humana, funciona como una corrección uno a uno, de padre a hijo. No escala a miles de millones de agentes. La alternativa que propone el paper es la alineación institucional: diseñar roles, normas y protocolos análogos a los de una sala de tribunal o un mercado, donde lo que importa no es quién ocupa cada posición, sino que el sistema de roles funcione correctamente.

Implicaciones para la gobernanza

El artículo concluye con una llamada de atención directa para reguladores y diseñadores de sistemas: cuando la IA participa en decisiones de alto impacto, (contratación, sentencias judiciales, asignación de beneficios), la arquitectura de supervisión debe ser también distribuida y con contrapesos. Los autores proponen un modelo de inspiración constitucional, donde distintos sistemas de IA con mandatos explícitos se auditen mutuamente, igual que lo hacen las ramas del poder en una democracia.

Lo que viene

Para los profesionales del sector, el mensaje central del paper es pragmático: las herramientas conceptuales más relevantes para diseñar la próxima generación de sistemas de IA no están solo en el aprendizaje automático, sino en la sociología de organizaciones, la ciencia de equipos y la teoría institucional. Un siglo de investigación sobre cómo los grupos toman decisiones colectivas está esperando ser aplicado al diseño de agentes.

La explosión de inteligencia, concluyen los autores, no llegará como una singularidad. Ya está ocurriendo, de forma distribuida, en cada modelo que debate consigo mismo, en cada flujo de trabajo humano-IA y en cada pregunta de gobernanza que todavía no sabemos responder.