Investigación científica en coautoría con IA: redistribución de agencia, crisis de autoridad y límites del pensamiento científico contemporáneo

Investigación científica en coautoría con IA: redistribución de agencia, crisis de autoridad y límites del pensamiento científico contemporáneo

La incorporación de sistemas de inteligencia artificial en la práctica científica no puede entenderse ya como una innovación instrumental ni como una simple aceleración de procesos existentes. En múltiples disciplinas, la investigación comienza a desarrollarse en condiciones de coautoría efectiva con sistemas capaces de explorar espacios de hipótesis, generar soluciones, detectar regularidades y producir resultados que exceden tanto la intuición como la capacidad de inspección directa de la mente humana. Esta transformación no afecta únicamente a los métodos, sino a las condiciones epistemológicas mismas bajo las cuales el conocimiento científico se produce, se valida y se legitima.

Un indicio temprano de esta transformación puede observarse en trabajos recientes que documentan colaboraciones reales entre investigadores humanos y sistemas de IA de frontera. En «Early science acceleration experiments with GPT-5«, se presentan estudios de caso en matemáticas, física teórica y biomedicina donde el sistema no solo acelera tareas auxiliares, sino que contribuye activamente a la generación de resultados, hipótesis y demostraciones parciales. En varios de estos casos, los investigadores humanos no conciben inicialmente la solución, sino que asumen funciones de verificación formal, interpretación conceptual o validación experimental de resultados producidos en interacción con el modelo

Lo relevante de estos ejemplos no es su magnitud cuantitativa, sino el tipo de práctica científica que ponen en escena. El conocimiento emerge como un artefacto distribuido, cuya validez puede establecerse antes de que exista una comprensión humana completa de su estructura. El paper subraya, además, la dependencia de estas colaboraciones respecto de formatos específicos (demostraciones formales, registros de interacción, scaffolding progresivo) y la necesidad constante de supervisión experta. En este sentido, lejos de resolver la cuestión de la autoridad científica, estos experimentos la problematizan: muestran una redistribución efectiva de la agencia cognitiva sin ofrecer aún un marco estable para la legitimación, la responsabilidad y la comprensión colectiva del conocimiento producido.

Uno de los desplazamientos más evidentes es la redistribución de la agencia cognitiva. En los próximos años, el papel del investigador se verá transformado por la IA, a medida que las funciones que históricamente se concentraban en la figura del investigador sean cada vez más compartidas con sistemas que operan a escalas de complejidad y velocidad inaccesibles para el razonamiento humano individual. Sin embargo, esta redistribución no implica una democratización simple del conocimiento científico. Por el contrario, introduce una asimetría estructural: mientras la capacidad de producir resultados se amplía, la capacidad de comprenderlos, interpretarlos y responder por ellos se vuelve más frágil.

En este contexto surge el planteamiento respecto a los roles epistémicos diferenciados que fragmentarían la figura clásica del investigador. Uno de ellos es el proceso de corroboración. En dominios como la matemática asistida por computadora, la optimización algorítmica o la modelación estadística de alta dimensionalidad, la corroboración ya no parte necesariamente de una intuición previa. Las contribuciones de la AI a la ciencia implican que el resultado puede existir antes de que alguien sea capaz de comprenderlo en sentido fuerte. La validación se desplaza hacia procedimientos formales, pruebas locales, chequeos automáticos o consistencias estadísticas.

Este desplazamiento introduce una tensión epistemológica profunda. La ciencia moderna se ha apoyado históricamente en la idea de que, incluso cuando los resultados eran complejos, eran en principio inteligibles para una comunidad entrenada. La coautoría con IA pone en cuestión este supuesto. Cuando la corrección precede a la comprensión, el criterio de legitimidad científica se desplaza desde la razón explicativa hacia una razón operativa, donde “funciona” puede imponerse sobre “entiendo por qué”. Este cambio no es trivial: redefine qué significa conocer y qué tipo de control epistémico es posible ejercer sobre los resultados producidos.

La interpretación es otro proceso que se vería modificado con la IA. Muchos sistemas de IA no producen explicaciones, sino modelos eficaces, correlaciones estables o estructuras latentes cuyo funcionamiento no se traduce automáticamente en comprensión conceptual. El intérprete no añade sentido desde fuera, sino que media entre artefactos cognitivos opacos y marcos teóricos humanos. Su tarea consiste en decidir qué regularidades pueden adquirir estatuto de hipótesis, qué patrones son artefactos del modelo y qué resultados merecen ser integrados en narrativas científicas más amplias. La interpretación deja de ser un paso posterior y se convierte en una condición de posibilidad del conocimiento mismo.

A medida que los sistemas de IA expanden de forma drástica el espacio de lo explorable, la escasez ya no reside en la producción de resultados, sino en el criterio para decidir cuáles son relevantes, prometedores o científicamente significativos. La curaduría no es neutral: orienta el paisaje cognitivo, define prioridades y estabiliza trayectorias de investigación. Sin embargo, esta función adquiere un poder silencioso, pues opera en gran medida antes de que el conocimiento se vuelva visible como resultado formalizado.

Durante el proceso de asimilación de la IA, la ciencia tendrá que replantearse sus métodos y comenzar a estructurarse como una ecología de prácticas distribuidas, coordinadas de manera inestable.

Esta fragmentación funcional va acompañada de una transformación menos evidente pero igualmente decisiva: la emergencia de nuevos formatos como estructuras activas del pensamiento científico. Herramientas como los notebooks computacionales, el empleo de código ejecutable no son meros soportes técnicos, sino arquitecturas cognitivas que imponen formas específicas de razonar, justificar y validar conocimiento.

Los notebooks computacionales integran texto, código y resultados en una misma superficie cognitiva, favoreciendo un pensamiento procesual, iterativo y reversible, donde el método se documenta como trayectoria contingente y no como procedimiento fijo.

El punto crucial no es quién domina estos formatos, sino que su adopción exige otro tipo de pensamiento científico. Operar dentro de estas estructuras implica aceptar formas de cognición que no están diseñadas para la intuición humana clásica: validar sin comprender del todo, interpretar resultados opacos, sostener coherencia entre artefactos heterogéneos y asumir que el conocimiento puede aparecer antes que su explicación. Esta transformación no es meramente técnica, sino epistemológica, y produce nuevas formas de exclusión. No todas las formas de pensamiento humano se adaptan con la misma facilidad a la formalización, la procedimentalización o la mediación algorítmica. La ciencia puede volverse más abierta en acceso, pero más estrecha en los estilos cognitivos que reconoce como legítimos.

Es en este punto donde la cuestión de la autoridad científica entra en una crisis estructural. La coautoría con IA redistribuye la agencia, permitiendo que actores sin formación científica formal contribuyan a la producción de resultados significativos mediante sistemas que encapsulan saber experto. Sin embargo, esta ampliación de la agencia no va acompañada de una redistribución equivalente de la autoridad. Por el contrario, la autoridad se vuelve más difícil de ejercer, justificar y sostener.

Se abren entonces dos dinámicas en tensión. Por un lado, la autoridad puede desplazarse hacia prácticas explícitas de validación, interpretación y trazabilidad, volviéndose más abierta, contestable y dependiente del proceso más que de la credencial. En este escenario, la legitimidad no se hereda institucionalmente, sino que se construye como responsabilidad visible. Por otro lado, la dependencia creciente de infraestructuras complejas (modelos cerrados, grandes volúmenes de datos, capacidad computacional, plataformas propietarias) introduce nuevas formas de concentración. La ciencia puede volverse abierta en la producción, pero elitista en la validación, desplazando la autoridad hacia quienes controlan los medios materiales del conocimiento.

Estas dinámicas no se resuelven en una transición ordenada. Coexisten y se tensan mutuamente. La ciencia contemporánea parece entrar en un régimen de inestabilidad crónica, donde la producción de resultados es rápida, la validación es costosa, la legitimación es frágil y la responsabilidad se distribuye de manera difusa entre humanos, sistemas y formatos.

En este contexto, el problema central de la investigación científica en la era de la IA ya no es simplemente quién puede descubrir, sino si las formas emergentes de conocimiento pueden aún ser comprendidas, legitimadas y asumidas como responsabilidad colectiva. La redistribución de la agencia cognitiva no garantiza una ampliación equivalente de la razón científica. Al contrario, expone un límite: la posibilidad de que la ciencia produzca conocimiento válido sin contar ya con estructuras estables para comprenderlo, gobernarlo y responder por él.