La industria de la inteligencia artificial no parece haber soltado el dedo del renglón de la Inteligencia Artificial General (AGI). Por el contrario, mientras el metaverso se evapora como promesa social y comercial, las empresas tecnológicas redoblan sus apuestas por modelos capaces de simular entornos, prever consecuencias y servir como base para agentes y robótica. El giro se deja ver en investigaciones recientes de Meta, Google DeepMind y NVIDIA, que han colocado los modelos de mundo y la physical AI en el centro de la conversación.
En enero, Reuters reportó que Meta planeaba recortar alrededor de 10% de la plantilla de Reality Labs, su división de metaverso y realidad virtual, en medio de pérdidas superiores a 60 mil millones de dólares desde 2020. En diciembre ya se había informado de recortes de hasta 30% en el presupuesto de sus esfuerzos de metaverso, y este mes Reuters volvió a reportar que la empresa evaluaba despidos más amplios para compensar el gasto creciente en infraestructura de IA. El ajuste no significa que Meta haya abandonado por completo la construcción de mundos digitales, pero sí sugiere que el metaverso dejó de ocupar el lugar estratégico que tuvo en la narrativa de Mark Zuckerberg.
A pesar del fracaso del metaverso, los recientes lanzamientos de las empresas desarrolladoras de IA sugiere un cambio de ruta, y una apuesta mayor por modeos de mundo y a la physical AI. Los modelos de mundo buscan representar y simular cómo funciona un entorno; la physical AI busca usar ese tipo de inteligencia para percibir, decidir y actuar en el mundo físico.
Meta desplazó parte de su ambición hacia otra clase de problema. En junio de 2025 presentó V-JEPA 2, un modelo del mundo entrenado con video que, según la propia empresa, permite comprensión, predicción, planeación en cero ejemplos y hasta control robótico en entornos nuevos. La diferencia no es menor: en vez de vender un universo virtual para que entren los usuarios, la investigación apunta a construir representaciones internas del mundo físico que ayuden a las máquinas a anticipar consecuencias y actuar.
Google DeepMind ha avanzado en una dirección parecida. En agosto de 2025 anunció Genie 3, descrito como un modelo del mundo de propósito general capaz de generar entornos interactivos explorables en tiempo real; en enero de 2026 lanzó Project Genie, una experiencia para crear y recorrer esos mundos; y en diciembre de 2025 presentó SIMA 2, un agente para mundos virtuales 3D que puede seguir instrucciones en lenguaje natural, conversar, pensar sobre sus metas y mejorar con el tiempo. En conjunto, estas iniciativas muestran cómo los espacios virtuales están dejando de ser solo una promesa de ocio o presencia social para convertirse en terreno de entrenamiento para agentes y robots.
NVIDIA ha llevado este viraje todavía más lejos al poner en el centro la idea de physical AI. En marzo, durante GTC 2026, la compañía anunció Cosmos 3, al que describe como el primer “world foundation model” que unifica generación de mundos sintéticos, razonamiento visual y simulación de acción para acelerar la inteligencia robótica generalizada en entornos complejos. La empresa ha insistido además en que sus world models y su stack de simulación sirven para entrenar y validar robots en fábricas, almacenes y otros espacios físicos, una señal más de que la lógica dominante ya no es la del metaverso como destino, sino la de los mundos virtuales como infraestructura de aprendizaje.
En paralelo, surgen nuevos lanzamientos que intentan presentarse no ya como simples generadores visuales, sino como sistemas con aspiraciones más generales. Esta semana, Luma AI lanzó UNI-1, que la empresa define como un “modelo de razonamiento multimodal que puede generar píxeles” y como un paso hacia la “multimodal general intelligence”. Más que prometer solo imágenes atractivas, Luma insiste en que el modelo entiende intención, responde a dirección y “piensa contigo”, un lenguaje que encaja con la tendencia a reempaquetar la generación visual como comprensión del mundo y razonamiento multimodal.
Todo esto ha coincidido con una nueva aceleración del lenguaje sobre AGI. En una conversación reciente con Lex Fridman, Jensen Huang, director ejecutivo de NVIDIA, dijo abiertamente: “Creo que es ahora. Creo que hemos alcanzado la AGI”. La frase se viralizó porque condensó un clima de época: la AGI ya no aparece solo como un horizonte técnico lejano, sino como consigna narrativa de una industria que quiere presentar sus avances actuales como umbral histórico.
Pero la disputa no es solo retórica. Google DeepMind publicó el 17 de marzo un marco cognitivo para medir el progreso hacia la AGI desde la ciencia cognitiva, en lugar de darla por alcanzada. La propuesta descompone la inteligencia general en diez capacidades: percepción, generación, atención, aprendizaje, memoria, razonamiento, metacognición, funciones ejecutivas, resolución de problemas y cognición social, y plantea compararlas con líneas base humanas. Junto con el texto, DeepMind anunció una hackathon con Kaggle para desarrollar nuevas evaluaciones. El movimiento funciona como contrapunto claro frente a las declaraciones grandilocuentes: antes de proclamar la AGI, habría que poder medirla con criterios comparables y multidimensionales.
La AGI, además, ya no es solo una cuestión filosófica o científica. También se ha vuelto una categoría jurídica y financiera. Reuters recordó recientemente que la relación entre Microsoft y OpenAI sigue atravesada por cláusulas ligadas a ese hito, una noción difícil de definir pero con efectos potenciales sobre derechos, acceso a tecnología e ingresos. En otras palabras, el término ya no organiza solo aspiraciones técnicas: también ordena contratos, reparto de poder y expectativas de mercado.
En medio de esa aceleración, OpenAI pareció intentar recuperar parte del lenguaje de su misión original. En una actualización publicada este 24 de marzo, la OpenAI Foundation reafirmó que su objetivo sigue siendo hacer que la AGI beneficie a toda la humanidad y anunció que prevé invertir al menos 1,000 millones de dólares durante el próximo año en ciencias de la vida, empleo e impacto económico, resiliencia frente a la IA y programas comunitarios. La fundación señaló además que su programa de AI Resilience se centrará inicialmente en infancia y juventud, bioseguridad y seguridad de modelos, con apoyo a evaluaciones independientes, estándares más sólidos e investigación fundacional.
La secuencia reciente sugiere que las grandes tecnológicas no han renunciado a la promesa de la AGI, pero sí están desplazando recursos y prestigio hacia una vía que consideran más plausible para acercarse a ella. En lugar de priorizar mundos virtuales como destino social o producto de consumo, el sector parece favorecer cada vez más los modelos de mundo, la simulación y la robótica como base para sistemas capaces de entender entornos, prever consecuencias y actuar sobre ellos. En ese sentido, el enfriamiento del metaverso no implica el abandono de los mundos digitales, sino su mutación en infraestructura cognitiva para la siguiente fase de la carrera por la inteligencia artificial general.
