Google lleva el “vibe coding” al mundo físico con una nueva herramienta para crear experiencias XR

Google lleva el “vibe coding” al mundo físico con una nueva herramienta para crear experiencias XR

Vibe Coding XR usa Gemini Canvas y el framework abierto XR Blocks para convertir prompts en aplicaciones WebXR interactivas, con física y percepción espacial

Google presentó Vibe Coding XR, una herramienta que busca llevar el “vibe coding” más allá de las páginas web y las apps tradicionales para entrar de lleno en entornos espaciales, interactivos y con física. La propuesta combina Gemini Canvas con el framework abierto XR Blocks para transformar instrucciones en lenguaje natural en aplicaciones WebXR funcionales para Android XR, con capacidad de prueba tanto en escritorio como en visores. Según el texto de presentación, el sistema puede generar estas experiencias en menos de 60 segundos.

La idea detrás de la herramienta es simple, pero su alcance es mayor de lo que parece. El usuario describe lo que quiere, por ejemplo, “crea un hermoso diente de león”, sin necesidad de saber programar en XR, y Gemini se encarga de diseñar e implementar la experiencia, configurando la escena, la percepción y la interacción. Después, el resultado puede probarse en un entorno de realidad simulada desde Chrome en escritorio o desplegarse directamente en un visor Android XR con interacción manual y corporal.

Google presenta esta herramienta como una manera de bajar la barrera de entrada para el desarrollo espacial. El texto señala que prototipar en XR suele requerir pipelines fragmentados de percepción, motores complejos y sensores de bajo nivel, mientras que Vibe Coding XR intenta automatizar esa complejidad mediante prompts, razonamiento de largo contexto y plantillas de código curadas. En su descripción técnica, la empresa explica que Gemini funciona como un diseñador e ingeniero XR “experto”, guiado por un prompt especializado que le enseña la arquitectura de XR Blocks, las mejores prácticas para entornos room-scale y patrones válidos de interacción.

El framework subyacente está construido sobre tecnologías web accesibles como WebXR, three.js y LiteRT.js, y su motor central se encarga de coordinar varios subsistemas clave para la computación espacial, entre ellos percepción del entorno, interacción XR e integración con IA. El objetivo ya no es solo escribir código rápido, sino producir experiencias capaces de reaccionar a manos, profundidad, escala y comportamientos físicos dentro de un espacio inmersivo.

Los ejemplos que ofrece Google revelan bien hacia dónde apunta esta herramienta. Entre los prototipos generados aparecen un tutor de geometría que visualiza sólidos en 3D, un laboratorio de física con pesas y balanza interactiva, una experiencia de química inmersiva con experimentos visualizados en XR, una demostración de Schrödinger’s cat, un juego de voleibol XR y una versión espacial del clásico Chrome Dino. Todos ellos comparten una característica importante: no son solo visualizaciones bonitas, sino entornos donde el usuario interactúa con objetos, relaciones espaciales y comportamientos físicos.

Ese detalle es el que vuelve a Vibe Coding XR más relevante que una simple curiosidad de producto. La herramienta sugiere que el “vibe coding” ya no quiere limitarse a interfaces 2D o a generación de software convencional, sino expandirse hacia aplicaciones que impliquen espacio, física, percepción y cuerpo. En ese sentido, Google no está lanzando solo una utilidad para developers: está mostrando cómo los modelos generativos empiezan a diseñar también pequeños mundos interactivos.

La propia evaluación preliminar del sistema apunta en esa dirección. Para probar la efectividad del flujo, el equipo construyó un pequeño dataset llamado VCXR60, compuesto por 60 prompts únicos recogidos en cuatro talleres internos con 20 participantes de Google. Con ese conjunto midieron tiempo de inferencia y tasa de éxito en una sola ejecución dentro del entorno simulado de XR Blocks. El texto reconoce que, al inicio, muchos errores provenían de bugs del propio framework o de alucinaciones de APIs inexistentes o depreciadas, lo que dejaba una tasa de éxito aproximada de 70%. Tras once versiones mayores, Google presenta la evaluación actual como una línea base de referencia y concluye que el “Pro Mode” ofrece los resultados más confiables para prototipado XR avanzado.

Más allá de sus cifras iniciales, Vibe Coding XR parece importante por el momento en que aparece. Durante los últimos días, varias señales del ecosistema de IA han empezado a concentrarse en el mundo físico, la simulación y la inteligencia embodied: benchmarks sobre razonamiento físico, apuestas por modelos de mundo, robots como emblemas institucionales y planes estatales que vinculan IA con robótica y AGI. En ese panorama, la herramienta de Google funciona como otra pieza del mismo movimiento: la IA ya no solo quiere conversar, escribir o dibujar, sino también configurar entornos, simular comportamientos y organizar interacciones espaciales con física.

La conclusión del propio texto de Google resume bien esa ambición. La empresa afirma que Vibe Coding XR marca un paso decisivo hacia un futuro donde la computación espacial ya no esté limitada por la pericia técnica, sino por la creatividad. Pero leído en un contexto más amplio, el anuncio sugiere algo más: que la frontera de la IA se está desplazando desde la generación de contenido hacia la construcción de realidades interactivas y físicamente conscientes. Si hace unos años el “vibe coding” remitía a páginas, prototipos web o apps ligeras, hoy Google propone llevarlo a mundos con manos, cuerpos, escala y gravedad.