El debate público sobre inteligencia artificial y cognición está mal planteado. La pregunta no es si la IA nos hace más listos o más torpes. La pregunta es qué está pasando realmente cuando millones de personas empiezan a pensar con máquinas.
El debate que no estamos teniendo
Cada semana aparece un nuevo estudio, una nueva columna de opinión, un nuevo experto advirtiendo que usar ChatGPT nos va a volver dependientes, superficiales, incapaces de pensar por nosotros mismos. Al mismo tiempo, otros tantos celebran que la IA nos hace más productivos, más creativos, más capaces.
Ambos bandos están hablando de lo mismo como si fuera simple. No lo es.
Lo que está ocurriendo en realidad es más interesante, más complejo y más urgente que cualquiera de esas dos narrativas. Y para entenderlo, hay que empezar por una idea que la filosofía lleva décadas desarrollando pero que casi nadie fuera de los laboratorios conoce: la mente nunca estuvo solo en la cabeza.
La mente ya era extendida antes de la IA
En 1998, el filósofo David Chalmers y el científico cognitivo Andy Clark publicaron un artículo que cambió silenciosamente la forma en que algunos investigadores piensan sobre la mente. Su argumento central era provocador: en muchos casos, la mente no termina en el cráneo.
Pusieron un ejemplo sencillo: una persona con Alzheimer que usa una libreta para recordar dónde vive. Si esa libreta es confiable, si la persona la consulta automáticamente, si funciona exactamente como funcionaría la memoria biológica, entonces esa libreta no es solo una herramienta. Es, funcionalmente, parte de su sistema cognitivo.
A esto le llamaron la tesis de la mente extendida. Y aunque suena abstracto, describe algo que todos hacemos todo el tiempo: pensar con el teléfono, con el mapa, con la calculadora, con las notas en el margen de un libro.
La pregunta relevante hoy no es si esto es bueno o malo. Es que con la llegada de los modelos de lenguaje, esa extensión dio un salto de escala que no tiene precedente.
Cuando la herramienta empieza a proponer
Una libreta guarda lo que tú escribes. Una calculadora opera lo que tú introduces. Esas herramientas son pasivas: extienden la mente, pero no generan contenido propio.
Un modelo de lenguaje hace algo cualitativamente diferente: propone hipótesis que no estaban en tu cabeza, conecta referencias que no hubieras conectado, sugiere caminos que no habías considerado. No es una extensión pasiva de tu memoria. Es un módulo activo que interviene en la generación misma de tus ideas.
Esto significa que cuando trabajas intensamente con uno de estos sistemas, lo que emerge no es simplemente «tú más una herramienta». Es una configuración híbrida donde resulta genuinamente difícil trazar la línea entre qué pensaste tú y qué propuso la máquina.
Eso no es necesariamente malo. Pero es algo que está ocurriendo a escala masiva sin que casi nadie lo esté mirando de frente.
La red cognitiva extendida: un nuevo marco para pensar el problema
Hablar de «mente extendida» sigue siendo insuficiente cuando el sistema incluye no solo una persona y un modelo, sino grafos de conocimiento, bases de datos, plataformas de comunicación e interfaces que filtran qué información llega primero a tu atención.
Una forma más precisa de describirlo sería hablar de redes cognitivas extendidas: sistemas híbridos donde humanos y módulos artificiales se acoplan de forma estable y producen, en conjunto, formas de percibir, inferir y decidir que ninguno de los componentes podría generar por separado.
Piensa en un investigador que trabaja con un modelo de lenguaje para explorar hipótesis, un grafo para mapear relaciones entre actores, bases de datos para validar información y redes sociales para seguir narrativas en tiempo real. Lo que «piensa» ese sistema no es solo lo que piensa el investigador. Es una coreografía de flujos de información entre todos esos componentes.
Las preguntas que sí importan
Si aceptamos que esto está ocurriendo, el debate cambia completamente. Ya no se trata de si la IA nos hace listos o torpes. Las preguntas relevantes son otras:
¿Quién controla la infraestructura de tu red cognitiva? Si tu memoria extendida, tus herramientas de análisis y tus fuentes de información dependen de plataformas privadas, una parte sustantiva de tu sistema cognitivo está bajo control corporativo. Lo que ves, lo que consideras plausible, lo que descartas: todo eso viene pre-filtrado por decisiones de diseño y modelos de negocio que no elegiste.
¿Hay una brecha cognitiva emergente? Quienes tienen acceso a buenos modelos, buenos datos y buenas herramientas pueden explorar espacios de posibilidad mucho más amplios que quienes no. Eso no es solo una brecha económica. Es una brecha en la capacidad misma de pensar ciertos tipos de problemas.
¿Podemos detectar cuándo la red entra en bucles de confirmación? Una persona que trabaja intensamente con un modelo que aprendió sus preferencias puede quedar atrapada en un sistema que refuerza lo que ya cree. El modelo no miente, simplemente optimiza para lo que históricamente ha generado más engagement en esa conversación.
Una nueva forma de alfabetización
Clark y Chalmers abrieron la puerta al mostrar que la mente no está toda en la cabeza. Lo que la IA generativa introduce es un nuevo nivel: módulos externos que no solo guardan o transforman información, sino que proponen narrativas, caminos y estructuras de pensamiento completas.
Entender eso no es un lujo académico. Es una forma de alfabetización cognitiva que se está volviendo tan necesaria como saber leer.
La pregunta ya no es solo «¿cómo uso esta herramienta?». La pregunta es: ¿qué arquitectura de pensamiento estoy construyendo al integrar estos sistemas a mi forma de ver, decidir y actuar?
Esa pregunta, la mayoría de los que usan IA todos los días todavía no se la están haciendo. Y ese, más que cualquier chatbot, es el verdadero problema.
