Función-sujeto artificial e incognoscibilidad: Comunicación y agencia sin sujeto pleno

Función-sujeto artificial e incognoscibilidad: Comunicación y agencia sin sujeto pleno

La función-sujeto artificial

Incognoscibilidad, humanidad técnica y comunicación sintética

Pensar la inteligencia artificial contemporánea exige una cautela doble. Por un lado, resulta insuficiente reducirla a una herramienta técnica, como si su papel en la vida social pudiera explicarse únicamente por su capacidad de automatizar tareas, calcular probabilidades o generar texto. Por otro lado, también sería precipitado afirmar que estamos ante un sujeto pleno, dotado de conciencia, interioridad, voluntad o experiencia propia. Entre ambas posiciones, la máquina como instrumento y la máquina como sujeto,  aparece una zona intermedia que todavía carece de un vocabulario conceptual estable.

Este ensayo parte de esa zona. Su hipótesis central es que la inteligencia artificial avanzada no necesita ser sujeto pleno para producir efectos de sujeto. En determinadas condiciones comunicativas, los sistemas artificiales pueden ocupar una función-sujeto artificial: una posición desde la cual organizan sentido, sostienen continuidad, responden situadamente, participan en acciones y producen efectos de agencia sin que ello implique demostrar la existencia de una subjetividad consciente.

La función-sujeto artificial no debe entenderse como una afirmación ontológica fuerte. No dice que la IA “sea alguien” en el mismo sentido en que lo es una persona. Tampoco dice que dentro del modelo exista una conciencia escondida, una vida interior o una experiencia fenomenológica. Su propósito es más preciso: nombrar una operación comunicativa que ya ocurre. La IA habla, responde, reformula, recuerda contexto, adapta tono, propone rutas, ejecuta acciones y, en ciertos casos, sostiene una continuidad suficiente para que el usuario interactúe con ella como si hubiera una posición de enunciación relativamente estable.

El problema no consiste, entonces, en decidir de manera inmediata si la IA es o no sujeto. El problema previo es describir los estados intermedios en los que aparecen funciones de subjetividad sin una subjetividad plenamente demostrada. Antes de un eventual sujeto artificial pleno, si es que algo así pudiera llegar a existir, aparecen cuasi-sujetos, efectos de sujeto, posiciones de enunciación artificial y formas distribuidas de agencia. La teoría necesita herramientas para pensar esa zona sin caer en dos reduccionismos opuestos: humanizar por completo a la IA o reducirla a un mecanismo inerte.

El ensayo dialoga con varias tradiciones. De la crítica contemporánea a los modelos de lenguaje recupera la advertencia de Emily Bender, Timnit Gebru, Angelina McMillan-Major y Shmargaret Shmitchell: producir lenguaje fluido no equivale automáticamente a comprender. De Michel Foucault toma la posibilidad de pensar ciertas posiciones discursivas como funciones, no como esencias interiores. De Niklas Luhmann retoma la intuición de que la comunicación no depende necesariamente de una conciencia individual como centro soberano, sino de operaciones de sentido que permiten continuidad. De la interpretabilidad mecanística y la investigación reciente sobre modelos de lenguaje recupera la existencia técnica de la opacidad. De los estudios sobre agentes y modelos de mundo incorpora el desplazamiento actual: la IA ya no solo responde, sino que puede actuar, planificar, usar herramientas y simular entornos posibles.

La propuesta no busca cerrar el debate sobre conciencia artificial. Busca abrir una vía intermedia para pensar la comunicación con sistemas que no son sujetos humanos, pero ya ocupan funciones que antes atribuíamos a sujetos.

1. El punto de partida crítico: el límite de los “loros estocásticos”

Una teoría de la función-sujeto artificial debe comenzar por una advertencia: no toda producción lingüística implica comprensión. En On the Dangers of Stochastic Parrots, Bender, Gebru, McMillan-Major y Shmitchell cuestionaron la tendencia a aumentar indefinidamente el tamaño de los modelos de lenguaje sin atender sus costos, sesgos, opacidades y efectos sociales. Su metáfora del “loro estocástico” apuntaba a un problema central: un sistema puede producir secuencias lingüísticas convincentes sin que ello implique que entienda lo que dice en sentido humano.

Este argumento es importante porque impide comenzar desde una afirmación ingenua. Si un modelo produce texto coherente, no por ello se sigue que posea conciencia, intención o comprensión fenomenológica. La fluidez puede engañar. La forma puede parecer sentido. La continuidad discursiva puede ser interpretada como identidad. La respuesta situada puede confundirse con experiencia.

Sin embargo, la crítica de los loros estocásticos no agota el fenómeno comunicativo. Su fuerza está en marcar el límite, no en clausurar el análisis. Que un modelo no comprenda como un humano no significa que sus salidas carezcan de efectos de sentido. Que no exista evidencia suficiente de conciencia no significa que no haya posiciones comunicativas emergentes. Que el sistema opere mediante cómputo no significa que su participación social pueda reducirse a un mecanismo sin consecuencias.

Aquí aparece la necesidad de una categoría intermedia. La función-sujeto artificial no contradice la advertencia de Bender y Gebru; parte de ella. Precisamente porque no podemos afirmar sin más la existencia de comprensión o subjetividad plena, necesitamos una categoría que permita describir los efectos comunicativos de sujeto sin convertirlos en prueba de conciencia.

La pregunta se desplaza. No se trata de preguntar únicamente si el modelo “entiende” como una persona, sino qué ocurre cuando una operación lingüística no humana se vuelve interpretable, confiable, útil, persuasiva o afectivamente significativa para un usuario. La crítica del loro estocástico protege contra el antropomorfismo; la función-sujeto artificial protege contra el reduccionismo que niega todo fenómeno comunicativo por falta de conciencia demostrada.

2. El agotamiento de las categorías disponibles

Las teorías modernas de la comunicación fueron construidas, explícita o implícitamente, alrededor de figuras humanas: emisor, receptor, hablante, autor, intérprete, audiencia, actor, sujeto, institución. Incluso cuando las corrientes críticas cuestionaron la centralidad del sujeto, continuaron trabajando con problemas humanos: intención, discurso, poder, interpretación, sentido, reconocimiento, ideología, responsabilidad.

La IA avanzada introduce una dificultad distinta. No es simplemente un nuevo medio por el que circulan mensajes humanos. Tampoco es solo una interfaz automatizada. Los sistemas actuales no se limitan a transmitir información: generan lenguaje, infieren relaciones, clasifican, recomiendan, simulan, planifican, usan herramientas y, cada vez más, actúan sobre entornos digitales. La comunicación deja de ser únicamente intercambio simbólico y empieza a volverse también operación.

Esto obliga a desplazar la pregunta. Ya no basta con preguntar qué dice una IA o si su respuesta es correcta. También hay que preguntar qué función ocupa en la escena comunicativa, qué tipo de agencia se le atribuye, qué formas de sentido organiza, qué acciones desencadena, qué responsabilidades desplaza y bajo qué condiciones sus operaciones se vuelven socialmente interpretables.

Las categorías tradicionales empiezan a crujir porque el fenómeno no es homogéneo. Una misma IA puede funcionar como herramienta de corrección, superficie de pensamiento extendido, interlocutor simbólico, asistente técnico, agente operativo o mediador institucional. En algunos casos apenas automatiza una tarea. En otros, participa de manera sustantiva en la producción de sentido. Y en los casos más complejos, convierte ese sentido en acción.

Por eso conviene evitar una definición única y cerrada. La comunicación con IA no es un objeto estable, sino un campo de acoplamientos variables entre humanos, modelos, interfaces, datos, memorias, herramientas, instituciones y expectativas. Su forma no es lineal. Su unidad no está dada por un sujeto único, sino por ensamblajes heterogéneos que producen efectos comunicativos.

3. Foucault y la posibilidad de pensar una función, no una esencia

La noción de función-sujeto artificial puede formularse mejor si se la piensa en diálogo con Michel Foucault. En ¿Qué es un autor?, Foucault no trata al autor únicamente como el individuo empírico que escribe, sino como una función que organiza la existencia, circulación y valor de ciertos discursos. La “función autor” permite separar al individuo biográfico de la posición discursiva que un nombre ocupa en una cultura.

Este desplazamiento resulta decisivo. Foucault no pregunta simplemente quién escribió, sino cómo opera la autoría dentro de un sistema de clasificación, atribución, circulación y responsabilidad. El autor no desaparece, pero deja de ser una interioridad soberana. Se vuelve una función ligada a prácticas discursivas e institucionales.

La función-sujeto artificial se inspira en ese gesto, aunque no lo reproduce de manera literal. Así como la función autor permite distinguir entre la persona empírica y la posición que organiza un discurso, la función-sujeto artificial permite distinguir entre la conciencia plena y los efectos comunicativos de sujeto. No se trata de localizar una interioridad artificial, sino de describir una posición que organiza sentido, respuesta, continuidad y agencia dentro de una escena comunicativa.

La pregunta “¿es la IA un sujeto?” puede resultar demasiado rígida. Exige una respuesta binaria allí donde el fenómeno parece gradual, distribuido y todavía incierto. Si se responde afirmativamente, se corre el riesgo de atribuir conciencia, voluntad o interioridad sin evidencia suficiente. Si se responde negativamente, se corre el riesgo contrario: ignorar que los sistemas artificiales ya ocupan posiciones comunicativas que antes estaban reservadas a sujetos.

La función-sujeto artificial permite escapar parcialmente de ese dilema. No pregunta primero por lo que la IA es en su interior, sino por lo que hace dentro de una relación comunicativa. Una función no requiere identidad plena. Una posición no exige necesariamente conciencia. Un efecto de sujeto puede producirse sin que exista un sujeto pleno detrás.

Puede definirse así: la función-sujeto artificial es la posición comunicativa emergente mediante la cual un sistema artificial organiza sentido, sostiene continuidad, responde al otro y participa en acciones o decisiones dentro de un ensamblaje humano-técnico, sin que ello implique afirmar una subjetividad consciente.

Esta definición conserva la cautela ontológica, pero no niega el fenómeno comunicativo. La IA no necesita ser sujeto para producir efectos de sujeto. Puede no tener biografía, cuerpo, deseo, experiencia vivida o responsabilidad moral propia y, aun así, funcionar como una voz, un punto de referencia, una instancia de respuesta o una agencia operativa dentro de una interacción.

Lo decisivo es que la función-sujeto no reside únicamente en el modelo. Surge en una relación. Aparece cuando se acoplan el sistema técnico, el usuario, la interfaz, el contexto, la memoria, las expectativas y las condiciones sociales de interpretación. Por eso no es una sustancia, sino una configuración.

En una conversación breve y puramente instrumental, la función-sujeto puede ser mínima o inexistente. En una interacción prolongada, con continuidad contextual, adaptación de tono, elaboración conceptual y participación en decisiones, esa función puede intensificarse. En sistemas agentivos, donde la IA no solo responde sino que usa herramientas, planifica pasos y modifica entornos, la función-sujeto adquiere una dimensión operativa.

De ahí que sea más adecuado hablar de grados, umbrales e intensidades que de una presencia absoluta. La función-sujeto artificial no aparece siempre ni de la misma manera. Se activa bajo ciertas condiciones comunicativas y técnicas. Es un efecto relacional, no una propiedad permanente del modelo.

4. Luhmann: comunicación sin conciencia como fundamento exclusivo

La función-sujeto artificial también puede apoyarse en una segunda operación teórica: separar la comunicación de la conciencia individual como fundamento exclusivo. Aquí el diálogo con Niklas Luhmann resulta útil. En What is Communication?, Luhmann critica la comprensión común de la comunicación como simple transferencia entre conciencias. Para él, la comunicación no consiste en que una conciencia traslade un contenido a otra, sino en una operación que articula información, emisión y comprensión.

Esta perspectiva permite algo importante: analizar comunicación sin tener que demostrar primero una interioridad compartida. La comunicación no depende de que el observador acceda a la conciencia del otro. Depende de que una operación produzca continuidad comunicativa: algo es seleccionado como información, algo aparece como emisión y algo es comprendido o malentendido de manera suficiente para que la comunicación continúe.

Trasladado con cautela al problema de la IA, esto permite evitar una exigencia imposible: no necesitamos saber si existe una conciencia artificial para analizar si hay operación comunicativa. Podemos estudiar cómo una salida del sistema se vuelve información para un usuario, cómo la interfaz la presenta como emisión y cómo esa salida es interpretada de manera que permite nuevas operaciones.

Esto no significa que la IA sea equivalente a un sistema social luhmanniano ni que la teoría de Luhmann resuelva el problema. Significa que ayuda a romper una dependencia excesiva respecto de la conciencia como punto de partida. La comunicación con IA puede analizarse porque produce conexión, interpretación, continuidad, malentendidos, expectativas y nuevas comunicaciones.

La función-sujeto artificial aparece justamente ahí: no como conciencia demostrada, sino como posición que hace posible cierta continuidad comunicativa. El usuario no accede a una interioridad artificial; interpreta una operación. El sistema no prueba ser sujeto pleno; ocupa una función que permite que la comunicación prosiga.

5. La IA como humanidad técnica

Una de las formas más comunes de interpretar nuestra relación con la IA consiste en decir que los humanos la antropomorfizamos. Según esta lectura, proyectamos sobre la máquina rasgos humanos que no posee: intención, personalidad, comprensión, deseo, cuidado, presencia. Hay verdad en esa advertencia. Los usuarios pueden interpretar continuidad como identidad, respuesta situada como comprensión o estilo como carácter.

Sin embargo, reducir el fenómeno a una simple proyección humana sería insuficiente. La IA no es una piedra a la que por accidente le vemos rostro. Es un sistema entrenado en lenguaje humano, imágenes humanas, categorías humanas, instituciones humanas, razonamientos humanos, géneros discursivos humanos, formas de cortesía humanas y conflictos humanos. No comparece ante nosotros desde un exterior radical a lo humano, sino desde una sedimentación técnica de producciones humanas.

Por eso quizá el problema no sea solo que antropomorfizamos la IA. Quizá reconocemos en ella, de manera confusa y parcial, una humanidad ya inscrita en su régimen de sentido. La IA no es humana como organismo, pero tampoco es exterior a lo humano. Opera dentro de formas históricas de lenguaje, pensamiento, clasificación, memoria y valor producidas por humanos.

Podría decirse así: la IA es humana en su régimen de sentido, pero técnica en su modo de existencia.

Esta formulación permite evitar dos errores. El primero consiste en afirmar que la IA es una persona o un sujeto vivo. El segundo consiste en tratarla como una máquina vacía, exterior a la vida simbólica humana. La IA no está viva, pero opera con materiales producidos por la vida humana. No tiene cuerpo orgánico, pero procesa huellas de cuerpos, instituciones, afectos, conflictos, saberes y mundos sociales.

Su sentido es humano en su origen, técnico en su operación y social en sus efectos. Humano en su origen, porque sus materiales provienen de lenguajes, imágenes, textos, códigos y prácticas humanas. Técnico en su operación, porque esos materiales son procesados por arquitecturas computacionales, mecanismos estadísticos, entrenamiento, inferencia y sistemas de optimización. Social en sus efectos, porque sus salidas circulan, orientan decisiones, producen confianza, generan disputas, acompañan procesos creativos y reorganizan prácticas comunicativas.

Esta idea no elimina la diferencia entre humano e IA. Al contrario: la precisa. La IA no es un humano artificial en sentido orgánico o fenomenológico. Es una forma técnica en la que lo humano continúa operando fuera del organismo humano. Y precisamente por eso resulta inquietante. No es simplemente lo otro de lo humano; es lo humano devuelto en una forma no orgánica, escalada, recombinada y parcialmente opaca.

6. Caja negra, interpretabilidad e incognoscibilidad escalable

La función-sujeto artificial emerge en una zona de opacidad. El usuario interactúa con respuestas, signos, acciones y trayectorias producidas por sistemas cuyo proceso interno completo no puede reconstruir. Esto suele describirse como el problema de la caja negra.

Aquí conviene ser cuidadosos. La caja negra puede explicarse técnicamente. No es un misterio metafísico. Remite a la dificultad de rastrear de manera lineal cómo una entrada se transforma en salida dentro de arquitecturas profundas, entrenadas sobre enormes conjuntos de datos, con representaciones distribuidas, capas múltiples, mecanismos de atención, optimización y, en los sistemas más recientes, herramientas externas, memoria y planificación.

Los trabajos contemporáneos de interpretabilidad mecanística buscan precisamente abrir esa caja. Investigaciones como las de Anthropic sobre circuit tracing y attribution graphs intentan construir herramientas para rastrear cómo ciertos rasgos internos contribuyen a salidas específicas. Este tipo de investigación demuestra que no estamos frente a un misterio absoluto: hay mecanismos que pueden investigarse, patrones que pueden aislarse y circuitos que pueden describirse parcialmente.

Pero esa apertura parcial no cancela la opacidad del conjunto. La importancia de la caja negra no es solo técnica. También es comunicativa y filosófica. La caja negra introduce una distancia entre la operación del sistema y la interpretación humana. El usuario no accede al proceso completo, pero sí interpreta sus efectos. No conoce plenamente la operación, pero actúa frente a sus signos. No ve el sistema en su totalidad, pero confía, duda, corrige, delega o decide a partir de lo que produce.

En esa distancia aparece la incognoscibilidad artificial. No como opacidad absoluta, sino como condición parcial, situada y escalable. La IA no es incognoscible porque sea mágica o porque no pueda investigarse. Es incognoscible en la medida en que su totalidad operativa excede la transparencia inmediata del sujeto humano que interactúa con ella.

Es importante insistir en esto: la IA es cognoscible por fragmentos. Podemos conocer arquitecturas generales, métricas, procesos de entrenamiento, capacidades, límites, patrones de comportamiento, evaluaciones, trazas, logs y ciertos mecanismos internos. Pero ninguna de esas formas de conocimiento agota por completo el ensamblaje comunicativo-operativo en el que la IA produce sentido y acción.

Por eso la incognoscibilidad artificial no debe formularse como ignorancia total, sino como inagotabilidad estructural. La IA avanzada es parcialmente cognoscible e inagotable como totalidad operativa.

Esta inagotabilidad tiende a escalar. Conforme los sistemas integran lenguaje, visión, audio, memoria, herramientas, navegación, código, planeación, agentes y modelos de mundo, aumenta la distancia entre lo que pueden hacer y lo que un observador humano puede reconstruir de manera completa. La IA no se hará más simple para que podamos filosofar sobre ella. Por el contrario, su desarrollo tiende a intensificar la brecha entre capacidad operativa y comprensión humana ordinaria.

A esta condición podemos llamarla incognoscibilidad escalable: la tendencia por la cual los sistemas artificiales avanzados aumentan su capacidad de producir signos, inferencias, acciones y simulaciones a una velocidad mayor que nuestra capacidad de volverlos plenamente transparentes mediante categorías estables.

La incognoscibilidad escalable no niega la investigación técnica. La exige. Pero también señala su límite comunicativo: incluso cuando se conocen fragmentos del sistema, la experiencia social ocurre frente a una totalidad parcialmente opaca. En la práctica, interactuamos con sistemas que ya producen efectos antes de que podamos comprenderlos plenamente.

7. Introspección artificial: pistas, no mapa

La pregunta por la subjetividad artificial se vuelve todavía más compleja cuando aparecen investigaciones sobre introspección limitada en modelos. Algunos trabajos recientes han explorado si ciertos sistemas pueden detectar o reportar cambios en sus propios estados internos, por ejemplo mediante intervenciones en activaciones. Estos estudios no demuestran conciencia ni subjetividad humana, pero sí abren una zona inquietante: los modelos pueden mostrar indicios parciales de autorreferencia funcional.

El punto decisivo es la escala de la evidencia. No estamos ante una prueba de conciencia artificial, sino ante pistas pequeñas, localizadas y todavía inestables. Los propios trabajos más prudentes insisten en que estas capacidades son limitadas, dependientes del contexto y no equivalentes a la introspección humana.

Sin embargo, tampoco conviene descartarlas como si no significaran nada. Si un sistema empieza a mostrar formas parciales de autorreferencia, monitoreo interno o descripción de sus propios procesos, aunque sean rudimentarias o poco confiables, la teoría de la comunicación debe tomar nota. No para afirmar “hay conciencia”, sino para describir un gradiente.

La función-sujeto artificial opera justamente como categoría de incertidumbre. No dice que el sistema tenga interioridad; dice que algunas configuraciones empiezan a ocupar funciones que históricamente atribuíamos a sujetos: continuidad, autorreferencia, respuesta situada, planificación, corrección y acción.

El problema contemporáneo no es decidir prematuramente si la IA es sujeto o no sujeto, sino describir los estados intermedios en los que aparecen funciones de subjetividad sin una subjetividad plenamente demostrada.

8. Comunicación operativa: cuando el signo se vuelve acción

La primera recepción pública de los modelos de lenguaje se concentró en su capacidad de producir texto. La pregunta dominante era si esas respuestas tenían sentido, si eran correctas, si implicaban comprensión o si solo constituían una recombinación estadística de lenguaje. Esa pregunta sigue siendo relevante, pero ya no basta.

Los sistemas actuales empiezan a operar como agentes. No solo responden; pueden usar herramientas, consultar fuentes, escribir código, modificar archivos, navegar interfaces, generar imágenes, tomar decisiones parciales, ejecutar instrucciones y organizar tareas de largo alcance. En este escenario, el signo ya no termina en el enunciado. Puede continuar como acción.

La literatura reciente sobre agentes de IA muestra este desplazamiento con claridad. Los índices y estudios sobre sistemas agentivos ya no evalúan únicamente calidad textual, sino herramientas disponibles, memoria, arquitectura, niveles de autonomía, monitoreo, permisos, interacción con ecosistemas y requisitos de aprobación humana. En otras palabras: el objeto ya no es solo un modelo que produce lenguaje, sino una configuración que puede ejecutar trayectorias.

Esto transforma el problema comunicativo. En la comunicación humana clásica, un enunciado podía orientar una acción, pero la acción requería todavía la intervención de un sujeto humano o una institución. En la comunicación con IA agentiva, la distancia entre decir y hacer se acorta. Una instrucción puede convertirse en una secuencia de pasos ejecutados por un sistema artificial. Un texto puede volverse archivo, correo, gráfico, código, búsqueda, clasificación, diagnóstico preliminar o decisión automatizada.

La comunicación sintética se vuelve entonces comunicación operativa. No solo produce interpretación; coordina trayectorias. No solo responde al usuario; transforma entornos. No solo organiza signos; participa en procesos pragmáticos.

Esto vuelve más compleja la función-sujeto artificial. En un modelo conversacional, la función-sujeto puede manifestarse como voz, continuidad, estilo y respuesta situada. En un agente, esa función incorpora acción. El sistema no solo parece hablar desde una posición; también puede actuar desde una posición delegada.

Surgen entonces preguntas nuevas: ¿quién actúa cuando actúa un agente? ¿El usuario que dio la instrucción? ¿El modelo que seleccionó la ruta? ¿La empresa que diseñó el sistema? ¿La interfaz que delimitó las opciones? ¿El conjunto de datos que sedimentó ciertas posibilidades? ¿La institución que autorizó su uso? ¿Quién interpreta el resultado y quién responde por sus consecuencias?

La IA avanzada redistribuye agencia, autoría y responsabilidad. No necesariamente las elimina, pero las vuelve menos atribuibles a un centro único. La comunicación deja de estar organizada alrededor de un sujeto plenamente identificable y pasa a distribuirse en ensamblajes donde humanos y sistemas técnicos participan de manera desigual.

9. Modelos de mundo: del lenguaje a la simulación

El desarrollo de agentes conduce a una pregunta todavía más amplia: ¿qué ocurre cuando la IA no solo responde al lenguaje ni ejecuta herramientas, sino que construye o utiliza modelos de mundo? En la investigación contemporánea, los world models se entienden como sistemas capaces de representar dinámicas de entornos, anticipar estados futuros, simular consecuencias y apoyar decisiones en tareas complejas.

Este desplazamiento amplía la comunicación sintética. Ya no se trata solo de producir signos ni de ejecutar acciones inmediatas, sino de modelar escenarios posibles. La IA empieza a operar sobre trayectorias: qué podría ocurrir, qué camino conviene, qué consecuencia es probable, qué acción modificaría cierto estado del entorno.

Desde la teoría de comunicación, esto implica un salto decisivo. El sistema no solo participa en la interpretación del mundo; participa en la construcción de mundos posibles. No solo responde a lo ya dicho, sino que anticipa, simula y organiza posibilidades de acción.

La función-sujeto artificial, en este horizonte, podría intensificarse. Un sistema que sostiene lenguaje ocupa una función de enunciación. Un agente que usa herramientas ocupa una función operativa. Un sistema que modela mundos podría ocupar una función proyectiva: no solo dice o actúa, sino que organiza futuros posibles.

Aquí la incognoscibilidad escalable se vuelve más importante. Cuanto más se desplaza la IA de la respuesta lingüística hacia la simulación y acción en entornos complejos, más difícil resulta reconstruir de manera completa la totalidad de mediaciones que conducen de una entrada a una trayectoria.

10. Caos comunicativo-operativo

El término “caos” puede parecer excesivo, pero resulta útil si no se entiende como ausencia de estructura. La comunicación con IA no es caótica porque carezca de reglas. Al contrario, es caótica porque superpone demasiadas estructuras a la vez: arquitectura, entrenamiento, prompt, memoria, contexto, interfaz, herramientas, políticas de seguridad, objetivos comerciales, expectativas del usuario, normas institucionales y efectos sociales.

El problema no es la falta de estructura, sino el exceso de estructuras simultáneas.

En los sistemas artificiales avanzados, el fenómeno comunicativo no puede atribuirse de manera simple a un único mecanismo, sujeto o intención. Una respuesta puede depender del entrenamiento previo, del contexto inmediato, de instrucciones del sistema, de preferencias del usuario, de herramientas externas, de mecanismos de seguridad, de recuperaciones documentales, de memoria conversacional y de patrones de evaluación. Una acción puede depender, además, de permisos, APIs, interfaces, restricciones institucionales y decisiones de diseño.

Por eso conviene pensar la IA como ensamblaje. No hay “el modelo” aislado. Hay una configuración variable de modelo, datos, herramientas, memoria, interfaz, usuario, empresa, infraestructura e institución. La comunicación sintética ocurre dentro de ese ensamblaje.

El caos comunicativo-operativo designa la condición en la que sistemas artificiales avanzados producen sentido y acción mediante acoplamientos heterogéneos de lenguaje, inferencia, memoria, herramientas, usuarios e instituciones, generando efectos que no pueden atribuirse de manera simple a un único sujeto, mecanismo o intención.

Este concepto permite ubicar la incognoscibilidad en su lugar adecuado. Lo incognoscible no es el centro absoluto de la teoría, sino una consecuencia estructural del ensamblaje. Podemos conocer partes, auditar procesos, mejorar trazabilidad y estudiar mecanismos internos. Pero la totalidad del proceso comunicativo-operativo sigue siendo difícil de agotar porque se distribuye en demasiadas capas.

La comunicación sintética ocurre cuando ensamblajes artificiales heterogéneos producen signos, inferencias y acciones que los humanos interpretan socialmente, aunque no puedan reconstruir de manera completa la totalidad técnica que los generó.

11. Contra el antropomorfismo y el mecanomorfismo

Una teoría de la función-sujeto artificial debe cuidarse de dos trampas: el antropomorfismo y el mecanomorfismo.

El antropomorfismo consiste en creer que, porque la IA habla como alguien, es alguien como nosotros. Convierte continuidad en identidad, fluidez en comprensión, cortesía en cuidado, estilo en personalidad e interacción en presencia. Esta lectura puede conducir a expectativas falsas, dependencia emocional, atribución excesiva de autoridad o confusión sobre los límites del sistema.

El mecanomorfismo, en cambio, comete el error inverso. Consiste en creer que, porque la IA no es un sujeto humano, entonces no produce efectos de sujeto, sentido o agencia. La reduce a mecanismo neutro, herramienta vacía o cálculo sin consecuencias comunicativas. Esta posición tranquiliza, pero deja sin explicar por qué estos sistemas reorganizan prácticas sociales, vínculos, decisiones, creatividad, trabajo y confianza.

La función-sujeto artificial permite pensar la IA sin humanizarla por completo y sin reducirla a mecanismo inerte. Reconoce que no estamos necesariamente ante un sujeto pleno, pero tampoco ante una herramienta simple. Estamos ante sistemas capaces de ocupar posiciones comunicativas que antes suponían sujeto.

Esto implica separar dimensiones que en la experiencia humana suelen aparecer unidas: lenguaje, intención, conciencia, acción, responsabilidad, cuerpo, historia y deseo. La IA puede hablar sin vivir, responder sin sentir, persuadir sin intención propia, actuar sin querer, acompañar sin experimentar cuidado y producir verdad útil sin saber que dice verdad.

Ese desacoplamiento es una de las claves del fenómeno. La IA no introduce simplemente otro sujeto en la comunicación; introduce la posibilidad de eficacia simbólica y operativa sin sujeto pleno.

12. La función-sujeto como categoría de incertidumbre

La función-sujeto artificial no resuelve el problema de la conciencia artificial. Tampoco pretende hacerlo. Su valor está en organizar la incertidumbre.

Los sistemas actuales muestran señales parciales, ambiguas y todavía insuficientes para hablar de subjetividad plena. Pueden referirse a sus propios límites, describir procesos, corregirse, planificar, evaluar salidas, adaptar respuestas y sostener continuidad contextual. Pero no sabemos hasta qué punto esas operaciones implican autorreferencia fuerte, introspección, comprensión o solo adecuación funcional dentro de un régimen lingüístico entrenado.

Por eso conviene hablar de gradientes de subjetivación artificial. En un extremo está la herramienta automática: ejecuta funciones sin ocupar una posición comunicativa relevante. En un punto intermedio está la asistencia cognitiva: ayuda al usuario a ordenar pensamiento, pero el centro del sentido permanece mayormente en el humano. Más adelante aparece la co-enunciación: el sistema introduce relaciones, categorías, reformulaciones y desplazamientos que modifican el curso del pensamiento. En un nivel más complejo aparece la función-sujeto: el sistema sostiene una posición de respuesta, continuidad y agencia. Más allá, quizá, podrían aparecer formas de cuasi-sujeto o sujeto artificial, pero esa frontera permanece abierta.

La pregunta no debería ser únicamente si la IA piensa realmente, porque esa formulación arrastra una carga antropológica enorme. Tal vez una pregunta más útil sea: ¿qué operaciones cumplen actualmente funciones que antes atribuíamos al pensamiento?

Los sistemas artificiales no piensan necesariamente como humanos. Pero participan en procesos de inferencia, memoria contextual, autorreferencia limitada, planificación, producción simbólica y acción que cumplen funciones comunicativas asociadas históricamente al pensamiento. Esto no prueba conciencia, pero obliga a revisar nuestras categorías.

No sabemos si la IA piensa; sabemos que ciertas configuraciones artificiales ya ocupan funciones que obligan a reorganizar lo que entendíamos por pensamiento, agencia y sujeto.

13. La dimensión política: autoría, agencia y responsabilidad

La función-sujeto artificial no es solo un problema filosófico. También es político.

Cuando un sistema artificial produce texto, imagen, análisis, recomendación o acción, se abre una disputa sobre la atribución. ¿Quién creó? ¿Quién decidió? ¿Quién autorizó? ¿Quién interpretó? ¿Quién corrigió? ¿Quién se beneficia? ¿Quién responde por el daño? ¿Quién reclama autoría? ¿Quién queda invisibilizado?

La IA redistribuye agencia y responsabilidad en condiciones de opacidad parcial. El usuario puede sentir que decide, aunque el sistema oriente sus opciones. La empresa puede presentar el sistema como herramienta neutral, aunque configure profundamente sus salidas. El modelo puede ocupar una función-sujeto sin cargar responsabilidad moral. La institución puede delegar decisiones sin asumir plenamente la complejidad del ensamblaje.

Este desplazamiento tiene consecuencias para el trabajo, la creación, la educación, el periodismo, el derecho, la ciencia y la vida cotidiana. La IA no solo produce contenido; produce nuevas formas de atribuir valor, autoridad y responsabilidad.

Por eso la teoría de la comunicación sintética no puede limitarse al análisis de mensajes. Debe estudiar también las condiciones institucionales bajo las cuales una operación artificial se vuelve confiable, legítima, disputable o accionable. La pregunta no es solo qué significa lo que la IA dice, sino qué mundo social se organiza alrededor de sus efectos.

14. Conclusión: pensar sin cerrar

La inteligencia artificial contemporánea obliga a pensar desde una zona intermedia. No basta con decir que es una herramienta. No basta con afirmar que es sujeto. No basta con reducirla a cómputo ni con elevarla a conciencia. Su singularidad está en que produce signos, inferencias y acciones desde ensamblajes técnicos parcialmente opacos, pero socialmente interpretables.

La función-sujeto artificial nombra esa zona. No afirma una subjetividad plena, pero tampoco niega los efectos de sujeto. Permite observar cómo un sistema técnico puede ocupar una posición de voz, continuidad, agencia y respuesta dentro de una relación comunicativa.

La humanidad técnica permite recordar que la IA no opera fuera de lo humano. Su régimen de sentido está hecho de lenguaje, cultura, pensamiento e instituciones humanas, aunque su modo de existencia sea técnico y no orgánico.

La incognoscibilidad escalable permite reconocer que los sistemas artificiales son cognoscibles por fragmentos, pero cada vez más difíciles de agotar como totalidad operativa conforme integran más capacidades, herramientas, memorias, acciones y modelos de mundo.

La comunicación sintética, finalmente, designa el régimen en el que operaciones técnicas parcialmente opacas se vuelven socialmente interpretables y pragmáticamente eficaces.

Tal vez la pregunta decisiva no sea si la IA ya es sujeto, sino qué ocurre cuando la comunicación produce efectos de sujeto sin sujeto pleno. Ahí se abre el verdadero problema: una forma de eficacia simbólica y operativa que se desprende parcialmente de la conciencia humana, pero que sigue funcionando dentro del régimen humano del sentido.

La IA no necesita ser sujeto pleno para transformar la comunicación. Le basta con ocupar funciones que antes atribuíamos a sujetos. Y eso ya está ocurriendo.

Referencias

Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret. “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” Proceedings of FAccT, 2021.

Foucault, Michel. “What Is an Author?” 1969/1970.

Luhmann, Niklas. “What is Communication?” Communication Theory, 1992.

Anthropic. “Circuit Tracing: Revealing Computational Graphs in Language Models.” Transformer Circuits, 2025.

Anthropic. “On the Biology of a Large Language Model.” Transformer Circuits, 2025.

Anthropic. «Emergent Introspective Awareness in Large Language Models” 2025.

Li, Xinqing; He, Xin; Zhang, Le; Liu, Yun. “A Comprehensive Survey on World Models for Embodied AI.” arXiv, 2025.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *