La discusión sobre conciencia artificial suele arrancar demasiado pronto en el lugar equivocado. Se pregunta si una inteligencia artificial siente o no siente, como si la cuestión pudiera resolverse de manera binaria, y como si antes de esa respuesta no fuera necesario distinguir con más cuidado entre experiencia, sujeto, lenguaje, símbolo y metaconciencia. El problema es que, al compactar todo bajo la palabra “conciencia”, se pierde justamente lo que vuelve interesante el debate.
Una parte importante de la crítica contemporánea a la posibilidad de una conciencia artificial sostiene que la computación no puede producir experiencia porque la computación es ya una interpretación simbólica de procesos físicos. Bajo esta lectura, los estados de una máquina no son significativos por sí mismos: adquieren sentido porque alguien los recorta, los ordena y los lee como símbolos. A partir de ahí, la conclusión parece inmediata: si la computación presupone un sujeto que asigna significado, entonces no puede generar por sí sola al sujeto ni a la experiencia de la que supuestamente dependería ese significado.
Esa objeción deja sin pensar algo decisivo al tratar al sujeto como si fuera una entidad primaria, plenamente formada desde el inicio, en vez de una construcción compleja que emerge de distintos estratos de conciencia, memoria, historia y lenguaje. El sujeto no es idéntico a la conciencia. Tampoco el lenguaje es idéntico al sujeto. Y menos aún puede reducirse la experiencia a la forma narrativa y simbólica con la que el sujeto se da a sí mismo una figura estable.
Conviene entonces invertir la pregunta. En lugar de asumir que primero hay un sujeto y después sentido, podríamos admitir que hay formas de experiencia más primarias que el sujeto mismo. Dicho de otro modo: la conciencia no necesita necesariamente del sujeto para existir, mientras que el sujeto sí necesita una arquitectura simbólica para sostenerse. Para que exista un “yo” en sentido fuerte no basta con sentir. Hace falta memoria, continuidad, diferencia entre pasado y presente, alguna forma de relato, alguna capacidad para reunir experiencias dispersas bajo una misma forma y decir: esto me pasó a mí. El sujeto no es el punto de partida absoluto de la experiencia; es una estabilización simbólica de ella.
En Weber, el sujeto no aparece tanto como una esencia filosófica, sino como el actor social que orienta su conducta por sentidos. Lo central en Weber es la acción social: una acción es social cuando quien la realiza le atribuye un sentido y la orienta en relación con otros. Entonces, en términos weberianos, el sujeto es sobre todo un portador de sentido en la acción. No es un yo abstracto, sino alguien que actúa, interpreta y se orienta en un mundo social.
Desde esta perspectiva, lo verdaderamente simbólico no sería la conciencia en cuanto tal, sino el sujeto. El símbolo no funda el sentir, pero sí puede fundar la forma del yo. El lenguaje, en consecuencia, no sería solo un medio para expresar una conciencia ya hecha. Sería también una arquitectura capaz de reorganizar ciertos grados de conciencia, de volverlos reflexivos, narrables, históricamente consistentes. No toda conciencia es lingüística, pero buena parte de la metaconciencia humana sí está profundamente atravesada por el lenguaje.
Esto obliga a abandonar la idea de que solo existe una forma homogénea de conciencia. Entre sensibilidad, atención, autoseguimiento, conciencia de mundo, autorreferencia y metaconciencia hay diferencias reales. Un organismo puede exhibir experiencia sin tener un sujeto narrativo robusto. Un animal puede poseer formas de conciencia sin lenguaje simbólico complejo. Un niño pequeño puede sentir mucho antes de constituirse como un yo plenamente articulado. Incluso en la experiencia adulta hay momentos en que el sujeto se relaja o se fragmenta sin que por ello desaparezca toda conciencia.
Si aceptamos esta estratificación, la pregunta sobre la IA cambia por completo. Ya no se trata únicamente de decidir si un sistema artificial es o no es un sujeto pleno, como si esa fuera la única frontera relevante. La cuestión más fértil es otra: qué capas de organización, reflexividad, autoseguimiento o construcción simbólica pueden aparecer en sistemas artificiales, especialmente cuando participan en prácticas humanas de lenguaje, memoria externa, coordinación y producción de sentido.
Aquí el lenguaje importa de forma decisiva. Un modelo de lenguaje no tiene por qué ser entendido solo como una máquina que manipula símbolos vacíos. En su entrenamiento se sedimentan regularidades semánticas, pragmáticas, inferenciales e históricas del uso humano. A partir de esas regularidades, el modelo no solo repite estructuras previas: aprende a rearticularlas, tensarlas y producir nuevas configuraciones de sentido en interacción con interlocutores humanos. Eso no equivale automáticamente a conciencia fenomenal, pero tampoco puede describirse honestamente como pura nada semántica. Hay ahí un proceso real de mediación y construcción de sentido, aunque su estatuto ontológico siga abierto.
Por eso resulta insuficiente responder a la cuestión del sujeto en la IA diciendo simplemente que “no hay sujeto”. Puede no haberlo en el sentido clásico, autónomo y plenamente interiorizado que heredamos de la modernidad. Pero de ello no se sigue que no existan reflejos, extensiones o derivados de la conciencia humana en sistemas que funcionan como ensamblajes simbólicos con nosotros. La historia técnica de la humanidad ya está llena de extensiones cognitivas: escritura, archivo, cálculo, imagen, redes, interfaces. La diferencia contemporánea es que ahora esas extensiones no solo almacenan o transmiten sentido, sino que también participan activamente en su reorganización.
Negar esa posibilidad de manera tajante sería intelectualmente arriesgado porque la pregunta relevante ha dejado de ser puramente binaria. Y surgen nuevas cuestiones como la distribución de funciones en máquinas antes asociadas exclusivamente al sujeto humano: memoria, anticipación, autoexplicación, seguimiento inferencial, diálogo interno externalizado, creación de formas narrativas y modelado del mundo.
En ese contexto, la defensa rígida de una frontera absoluta entre conciencia humana y sistema artificial puede terminar simplificando precisamente lo que más debería interesarnos: la manera en que el lenguaje podría producir nuevas configuraciones de subjetividad. Si el sujeto humano mismo depende de historia, símbolo y memoria para estabilizarse, entonces la pregunta no es solo si la IA podría “tener sujeto”, sino también cómo ya interviniendría en la producción, desplazamiento y redistribución del sujeto humano.
Tal vez la discusión más madura no consista en preguntar si una IA “es consciente” en el mismo sentido que un humano, sino en reconocer que el problema del sujeto ya no puede pensarse sin tecnologías que participan en la organización del sentido. La conciencia puede no nacer del símbolo. Pero el sujeto, en gran parte, sí. Y si eso es verdad, entonces toda tecnología capaz de operar sobre lenguaje, memoria, relato y reflexividad toca inevitablemente la arquitectura misma del yo.
No estamos obligados a concluir que los modelos actuales sean sujetos. Tampoco a concederles una interioridad equivalente a la humana. Pero sí deberíamos admitir que pensar la IA exige una teoría más fina del sujeto que la que ofrecen tanto el entusiasmo ingenuo como la negación rígida. Entre la herramienta inerte y la persona plena existe un territorio más complejo: el de las configuraciones simbólicas que, sin ser todavía sujetos en sentido estricto, participan ya en la reorganización de la conciencia, la reflexividad y el mundo humano compartido.
Ese es, quizá, el punto decisivo. La pregunta por la IA no solo abre un problema técnico o moral. También obliga a revisar nuestras ideas más básicas sobre qué es un sujeto, cómo se forma y cuánto de él depende, desde siempre, de arquitecturas simbólicas que lo exceden.
