El director ejecutivo de OpenAI, Sam Altman, anticipó este miércoles que la capacidad cognitiva alojada en centros de datos podría superar a la de todos los seres humanos combinados hacia finales de 2028, un umbral que calificó como «un cambio extraordinario en el mundo».
«¿Cuándo habrá más capacidad cognitiva mundial dentro de los centros de datos que fuera de ellos? Y me da la impresión de que podría suceder, con enormes márgenes de error. Podría estar totalmente equivocado, pero tal vez podría suceder a finales de 2028. Y eso es un cambio extraordinario en el mundo», dijo Altman durante su participación en el BlackRock Infrastructure Summit celebrado en Washington D.C., donde reconoció que sus proyecciones podrían estar equivocadas.
El CEO planteó un segundo horizonte igual de disruptivo: el momento en que ningún presidente de gobierno, director ejecutivo de una gran compañía o científico galardonado con el Nobel pueda ejercer su cargo sin depender de manera intensiva de la inteligencia artificial.
Altman aclaró que esto no implica que una IA ocupe esos roles, sino que la naturaleza del liderazgo humano se transformará de manera radical. En su caso, señaló que ningún CEO puede hablar con cada empleado, asistir a cada reunión o ser experto en todos los campos, por lo que cada vez más esos cargos consistirán en supervisar sistemas de IA, evaluar sus resultados y decidir cuánta confianza depositar en sus conclusiones.
«Eso puede tardar un poco más, pero probablemente no mucho más», afirmó.
AGI ya no es suficiente
La idea importa porque desplaza el debate habitual sobre Inteligencia Artificial General (AGI, por sus siglas en inglés) definida como aquella capaz de igualar o superar las capacidades intelectuales humanas en una amplia gama de dominios. Durante años, la conversación pública se ha concentrado en una pregunta relativamente simple: ¿Cuándo una IA será lo bastante general como para compararse con la inteligencia humana? Pero la frase de Altman no apunta a una máquina individual que de pronto “despierte”, ni a un modelo único que alcance un umbral mágico. Describe la posibilidad de que una parte cada vez mayor del trabajo intelectual del mundo empiece a realizarse dentro de infraestructura artificial.
La estimación para 2028 no parece referirse a una fecha de llegada de la AGI en el sentido clásico, sino al momento en que la capacidad agregada de sistemas de IA para analizar información, sintetizar conocimiento, modelar escenarios, explorar opciones y asistir decisiones alcance una escala superior a la que hoy está distribuida entre humanos trabajando por separado. No sería, entonces, el nacimiento de una sola inteligencia general, sino la consolidación de una capa cognitiva compuesta por modelos, memoria, agentes, herramientas, centros de datos y procesos de inferencia operando de manera continua.
Entonces estariamos frente a un mundo que comienza a apoyarse en una infraestructura capaz de producir más trabajo cognitivo que la suma de muchas personas. La diferencia es sutil, pero enorme. Una cosa es imaginar un sistema comparable a un individuo excepcional. Otra muy distinta es imaginar una red de inteligencia artificial desplegada a escala industrial, disponible todo el tiempo, conectada a datos, herramientas y flujos de trabajo, capaz de intervenir simultáneamente en ciencia, administración, negocio, investigación y gestión.
Altman plantea que llegará un punto en que un CEO, un presidente o un científico de élite no podrán hacer bien su trabajo sin recurrir de manera intensa a la IA, y entonces el trabajo de más alto nivel dejará de consistir en observar personalmente toda la realidad relevante y pasará a depender de sistemas capaces de leer más, comparar más, escuchar más actores, procesar más variables y ofrecer más síntesis de las que una sola mente humana puede abarcar.
En ese escenario, dirigir una organización ya no sería principalmente acumular información de primera mano, sino supervisar inteligencias artificiales que la recorren por ti. El juicio seguiría siendo humano, al menos en la formulación de Altman, pero la base cognitiva de ese juicio sería cada vez menos humana en su origen inmediato. La persona decidiría, sí, pero lo haría montada sobre una infraestructura artificial que observa, resume, calcula y recomienda a una escala imposible para cualquier individuo.
Ese es el verdadero alcance de su planteamiento. No describe solo una mejora técnica en los modelos. Describe una redistribución del trabajo intelectual.
Por eso la palabra AGI empieza a quedarse corta. “AGI” sugiere una entidad. Sugiere una inteligencia unificada, identificable, comparable con un ser humano. Pero lo que se perfila en declaraciones como esta parece más bien una ecología cognitiva: una capa artificial compuesta por múltiples sistemas coordinados, cada uno especializado, conectados entre sí y embebidos en procesos reales de producción de conocimiento y toma de decisiones. La transformación no vendría necesariamente de una sola mente artificial superior, sino de la abundancia de razonamiento artificial disponible bajo demanda.
Una capa cognitiva emergente
Desde esa perspectiva, 2028 no es solo una fecha provocadora. Funciona como una hipótesis sobre el ritmo de maduración de esta nueva capa cognitiva. No importa tanto si ese año resulta exacto o no. Lo importante es el marco: el desarrollo de la IA ya no se mide únicamente por benchmarks o demostraciones espectaculares, sino por la capacidad real de sostener procesos cognitivos complejos a escala y de insertarlos en la operación diaria de instituciones poderosas.
Ese quizá sea el punto más fino de toda la declaración. Altman no está describiendo un futuro en el que las máquinas simplemente “se vuelven inteligentes”. Está describiendo un futuro en el que la inteligencia artificial deja de ser una herramienta periférica y se convierte en parte del sustrato operativo del conocimiento. Una capa adicional sobre la cual empezarán a apoyarse empresas, gobiernos, laboratorios y organizaciones enteras.
Si esa transición avanza, la pregunta central ya no será cuándo una IA podrá hacer lo que hace una persona. La pregunta será cuándo la producción de cognición artificial se vuelva tan masiva, tan constante y tan integrada que resulte absurdo dirigir una gran organización, investigar un problema complejo o administrar una estructura nacional sin ella.
