Durante años, una idea se repitió casi como un límite tácito de la inteligencia artificial: las redes neuronales podían reconocer rostros, traducir textos, clasificar imágenes o detectar patrones difusos en grandes volúmenes de datos, pero no parecían hechas para trabajar con la dureza de la matemática simbólica. Resolver una integral, manipular expresiones formales o encontrar la solución de una ecuación diferencial seguía pareciendo territorio de otro tipo de máquina: los sistemas algebraicos construidos con reglas explícitas, algoritmos especializados y décadas de ingeniería formal.
Por eso resultó tan llamativo el trabajo publicado en 2019 por Guillaume Lample y François Charton. Su propuesta no era menor: usar aprendizaje profundo para tareas como integración simbólica y resolución de ecuaciones diferenciales ordinarias. Lo sorprendente no era solo el objetivo, sino el giro conceptual que lo hacía posible. En vez de tratar las expresiones matemáticas como objetos intocables reservados al cálculo formal clásico, las representaron como árboles y luego como secuencias de símbolos, de modo que un modelo secuencia a secuencia pudiera aprender a transformar una expresión en otra, casi como si tradujera de un idioma matemático a otro.
El corazón del experimento fue ese desplazamiento: convertir una operación matemática en un problema de estructura. Para entrenar al sistema, los investigadores generaron grandes volúmenes de datos sintéticos con funciones, integrales y soluciones de ecuaciones diferenciales. Después entrenaron un transformer para aprender esas correspondencias. La máquina no recibió el cálculo como lo aprende un estudiante, ni partió de intuiciones geométricas sobre áreas bajo la curva o tasas de cambio. Aprendió, más bien, a reconocer regularidades formales en expresiones complejas.
Lo inesperado vino con los resultados. En sus conjuntos de prueba, el modelo obtuvo precisiones muy altas y, bajo las condiciones reportadas por los autores, superó a software algebraico comercial como Mathematica, Maple y Matlab en varias de las tareas evaluadas. Más aún, el propio paper subrayaba una paradoja: las redes neuronales habían mostrado dificultades en tareas aparentemente más simples, como la aritmética entera, pero aquí estaban resolviendo integración simbólica y ecuaciones diferenciales con un desempeño sorprendente.
Esa fue la primera vez que el mundo vio a una red neuronal operar con objetos simbólicos complejos de una manera mucho más poderosa de lo que se suponía. De repente, la separación tajante entre sistemas estadísticos y manipulación formal empezaba a verse menos nítida.
Ahí podría haber terminado la historia: como una demostración notable de que la IA también podía entrar en la matemática simbólica. Pero no terminó ahí. Años después, la pregunta cambió. Ya no se trataba solo de si un modelo podía resolver integrales a partir de ejemplos, sino de si podía acercarse a la noción misma de integral desde algo más elemental: su definición como área acumulada bajo una curva. Ese es el giro del trabajo de 2024, “Automated Discovery of Integral with Deep Learning”, que propone un procedimiento para aproximar integrales numéricamente, usar regresión simbólica para inferir expresiones y después entrenar un modelo capaz de redescubrir reglas de integración a partir de esa base.
La diferencia entre ambos trabajos es sutil, pero importante. El de 2019 mostró que una red podía aprender a resolver integrales simbólicas reconociendo patrones en expresiones formales. El de 2024 empujó la pregunta hacia otro sitio: si era posible reconstruir la idea de integral desde una definición operativa, combinando observación numérica, búsqueda simbólica y aprendizaje automático. En el primer caso, la máquina aprende una transformación válida entre formas. En el segundo, intenta aproximarse al surgimiento del concepto desde una regularidad más básica.
La relevancia científica de esta secuencia es grande por al menos dos razones. La primera es práctica: abre la posibilidad de herramientas matemáticas híbridas donde el aprendizaje automático no sustituya al cálculo formal, sino que lo complemente. El propio trabajo de 2019 sugería que los sistemas algebraicos del futuro podrían incorporar componentes neurales. La segunda razón es más profunda: obliga a replantear qué entendemos por comprensión en una máquina. Porque estos sistemas no piensan el cálculo como Newton o Leibniz, no imaginan curvas ni viven el vértigo del continuo, pero empiezan a encontrar estructuras válidas dentro de un dominio que durante mucho tiempo parecía demasiado formal para ellos.
Lo más fascinante de todo quizá no sea que la IA haya llegado a resolver ciertos problemas matemáticos, sino el modo en que lo hizo. No empezó por el concepto, sino por la forma. No por la intuición, sino por la estructura. Y eso abre una pregunta que la ciencia apenas empieza a explorar: si en algunos territorios del conocimiento la inteligencia no nace primero de comprender una idea, sino de captar las regularidades que la sostienen.
