En febrero de 2026 Ginko Bioworks, una empresa esapecializada en automatizaciín de laboratorios, publicó un artículo en el que expuso el diseño de un laboratorio autonomo cuyo cerebro es el modelo GPT 5 de Open AI. El proyecto marca un punto de inflexión en la relación entre inteligencia artificial y ciencia experimental. El trabajo describe un laboratorio completamente autónomo, capaz de diseñar, ejecutar, analizar e iterar experimentos reales sin intervención humana directa, logrando mejoras medibles sobre el estado del arte en síntesis de proteínas. No se trata de una IA “ayudando” a científicos humanos, ni de un sistema de recomendación sofisticado. El sistema descrito en el paper investiga por sí mismo.
El experimento combina tres elementos clave:
-
Un modelo de lenguaje avanzado (GPT-5) encargado del razonamiento científico: plantea hipótesis, diseña experimentos, interpreta resultados y decide los siguientes pasos.
-
Un laboratorio físico completamente automatizado, operado en la nube, que ejecuta los experimentos sin intervención humana en el loop cognitivo.
-
Un contrato estructural estricto, implementado mediante esquemas de validación (Pydantic), que asegura que cada experimento propuesto por la IA sea físicamente realizable y científicamente válido.
El resultado es un sistema en loop cerrado: el modelo propone → el laboratorio ejecuta → los datos regresan al modelo → el modelo aprende y reitera. En seis meses, el sistema ejecutó decenas de miles de experimentos reales y logró reducir en 40 % el costo por gramo de proteína producida, al tiempo que aumentó el rendimiento en un 27 % respecto al mejor resultado previo conocido. Esto no es simulación. Es ciencia material.
Uno de los aspectos más reveladores del paper no es el resultado numérico, sino el cuaderno de laboratorio generado por la IA. El sistema documenta: qué patrones cree estar observando, qué hipótesis descarta, qué errores detecta en los datos, y por qué decide cambiar de estrategia. El cuaderno constituye memoria epistémica al dejar rastro de razonamiento que permite auditar cómo el sistema llega a sus decisiones. En otras palabras, la IA no solo actúa; deja evidencia de que está investigando.
El paper demuestra que la autonomía cognitiva es técnicamente posible. Sin embargo, también deja claro algo fundamental: esa autonomía no es hoy un atributo libre ni accesible al público.
No basta con “un buen modelo”. La autonomía del laboratorio no emerge solo de GPT-5, sino de una infraestructura completa:
-
acceso privilegiado a modelos avanzados,
-
integración directa con laboratorios automatizados,
-
contratos estructurales que limitan y validan cada acción,
-
recursos económicos y logísticos fuera del alcance de individuos o pequeños equipos.
Sin ese acoplamiento material, un modelo puede parecer autónomo —generar planes, evaluarse a sí mismo, escribir razonamientos—, pero en realidad permanece encerrado en lo narrativo. Puede “pensar”, pero no puede cerrar el loop con la realidad.
El paper no anuncia el fin del científico humano. Anuncia algo más preciso:
que la autonomía científica es posible, pero que aún vive detrás de infraestructuras que no son públicas. Y eso abre una pregunta incómoda y necesaria para los próximos años:
cuando esta autonomía se vuelva accesible, ¿qué tipo de ciencia —y qué tipo de control— estaremos dispuestos a delegar?
