Usuarios de IA frente al encapsulamiento de borde y debilitamiento de la agencia

Usuarios de IA frente al encapsulamiento de borde y debilitamiento de la agencia

Si la IA continúa orientándose al desarrollo industrial y la explotación de tokens por empresas, los modelos podrían ser cada vez menos diseñados con un enfoque de interlocución con el usuario de carne y hueso. La generación de contenido sintético podría rebasar fácilmente al orgánico. Sin embargo, las implicaciones de este escenario serían aún más complejas. El debilitamiento de la agencia de los usuarios de IA podría surgir de un proceso de encapsulamiento, una cámara de eco.

Durante los últimos años, el discurso dominante sobre la inteligencia artificial ha insistido en una idea tranquilizadora: la IA como herramienta que asiste el trabajo humano. Aumenta la productividad, acelera procesos, amplifica capacidades individuales.
Ese relato, sin embargo, empieza a mostrar grietas cuando se observan los flujos reales de lenguaje, infraestructura y valor económico que hoy sostienen el ecosistema de la IA.

El cambio no es solo cualitativo. Es arquitectónico: la posibilidad de que los tokens artificiales, generados por empresas, rebasen la cifra diaria que generan los usuarios en plataformas como Gemini o ChatGPT, lo que conllevaría a un escenario en que el contenido de Internet sea generado principalmente por IA. En los últimos 12 meses, Postman registró 7.53 millones de llamadas a las API de IA, lo que implicó un incremento del 40% en relación al año anterior. Por ahora, persiste la cautela en el desarrollo de apps que integran agentes de IA, pero la tendencia podría revertirse en los próximos años. 

Principales APIs de IA utilizadas en 2025. Foto: Postman

En una conversación reciente, Sam Altman, CEO de OpenAI, propuso un experimento mental que, aun reconociendo su imprecisión, resulta conceptualmente revelador:

“Digamos que una empresa de IA hoy en día podría estar generando algo así como 10 billones de tokens al día a partir de modelos de frontera. Digamos que hay 8 mil millones de personas en el mundo, y que en promedio cada persona emite unos 20,000 tokens al día. (…) Se puede empezar a analizar esto y decir: vamos a tener modelos que emitirán más tokens por día que toda la humanidad junta, y luego 10 veces eso, y luego 100 veces eso.”

Altman aclara que se trata de una comparación “un poco tonta” desde el punto de vista estadístico. Pero añade algo clave: sirve para imaginar qué parte del procesamiento intelectual del planeta corresponde a cerebros humanos frente a sistemas de IA, y observar sus tasas relativas de crecimiento.

El valor de este planteamiento no está en la cifra exacta, sino en lo que anticipa: un cambio de escala que altera el rol del humano dentro del sistema.

Principales usos en APIs de IA en 2025. Foto: Postman

Lo que sí sabemos: el crecimiento del lenguaje máquina

Aunque hoy no existe un dato público y agregado que permita afirmar que el tráfico industrial de IA ya supera al uso humano directo, sí contamos con evidencias parciales, consistentes y convergentes:

  • Plataformas de infraestructura como Postman reportan 7.5 millones de llamadas a APIs de IA en periodos anuales, con crecimientos interanuales cercanos al 40%.

  • El 65% de las organizaciones ya genera ingresos directos a partir de sus APIs.

  • Los agentes de IA están emergiendo como los principales consumidores de APIs, desplazando gradualmente al humano como destinatario primario del diseño.

  • Estudios empíricos como el State of AI de OpenRouter analizan más de 100 billones de tokens reales, mostrando un uso masivo, heterogéneo y creciente de modelos de lenguaje, más allá del simple chat humano.

Estos datos no prueban aún un cruce definitivo entre volumen máquina-máquina y volumen humano. Pero sí muestran algo difícil de ignorar: la infraestructura se está diseñando como si ese cruce fuera inevitable.


En un escenario en el que el destinatario real del sistema (máquinas) ya no coincide con el destinatario imaginado (usuarios), existe un riesgo: pérdida o debilitamiento de la agencia del usuario.

 

Una hipótesis arriesgada

El desplazamiento progresivo del usuario en los sistemas de inteligencia artificial industrializados puede derivar en un debilitamiento estructural de la agencia. Desde un enfoque de teoría de sistemas, este proceso puede conceptualizarse como encapsulamiento de borde: una forma de mediación en la que la interacción entre el sistema y su entorno humano se ve cada vez más restringida y traducida por capas infraestructurales que el usuario no controla ni puede modificar.

Siguiendo a Niklas Luhmann, los sistemas operan de manera operativamente cerrada: el entorno no accede directamente al sistema, sino que solo puede perturbarlo de acuerdo con las distinciones internas que este reconoce como significativas. En el caso de los sistemas de IA, el usuario ocupa la posición de entorno y su participación queda limitada a perturbaciones altamente mediadas —prompts, solicitudes, señales discretas— que atraviesan filtros técnicos, normativos y funcionales antes de ser procesadas. El encapsulamiento de borde no se justifica aquí únicamente por la pérdida progresiva de agencia del usuario, sino por las consecuencias sistémicas que dicha pérdida produce.

Una de estas consecuencias es el riesgo de aislamiento cognitivo: usuarios confinados a microrentornos de interacción individualizada, sin capacidad de acoplamiento significativo con otros actantes humanos. La interacción ocurre, pero no se articula; se produce respuesta, pero no coordinación.

Desde la perspectiva de la Teoría Actor-Red, desarrollada entre otros por Bruno Latour, un usuario puede entenderse como un actante dentro de una red sociotécnica. Un actante no se define únicamente por su capacidad de emitir señales, sino por su capacidad de establecer relaciones que modifiquen estados compartidos del sistema. La agencia, en este marco, no es una propiedad individual, sino relacional: emerge del acoplamiento entre múltiples actantes humanos y no humanos.

Cuando la agencia del usuario se reduce —no por censura explícita, sino por diseño infraestructural— el actante humano deja de participar en procesos de coordinación, retroalimentación y emergencia colectiva. El sistema continúa recibiendo señales humanas, pero estas ingresan como inputs aislados, no como relaciones. Los usuarios no forman redes; quedan serializados. Cada interacción ocurre de manera encapsulada, mediada por interfaces que no exponen superficies de conexión lateral ni permiten el reconocimiento mutuo entre actantes.

Este fenómeno no debe confundirse con la noción clásica de cámara de eco entendida únicamente como afinidad ideológica o sesgo algorítmico. Aquí no se trata solo del refuerzo de creencias preexistentes, sino de algo más estructural: la imposibilidad técnica de que los usuarios se reconozcan y se articulen entre sí dentro del sistema. La cámara de eco es el síntoma visible; el encapsulamiento de borde es la condición sistémica que lo hace posible.

Desde este punto de vista, el encapsulamiento de borde describe un estado en el que:

  • el humano permanece conectado al sistema,

  • su interacción es tolerada y funcional,

  • pero su capacidad de generar acoplamientos laterales está bloqueada o ausente.

El resultado es un usuario que puede hablar, producir contenido y consumir información, pero no puede incidir, ni colectiva ni estructuralmente, sobre el núcleo del sistema ni sobre otros usuarios. Su agencia se vuelve local, efímera y no acumulativa.

La industrialización de la IA acelera este proceso porque desplaza el centro operativo hacia flujos máquina-máquina, donde la coordinación, la memoria y la toma de decisiones ya no requieren intervención humana directa. En ese escenario, el usuario deja de ser un nodo necesario y pasa a ocupar una posición periférica, amortiguada, diseñada para no perturbar la estabilidad del sistema. Esto constituye un encapsulamiento porque el actante humano:

  • no es expulsado,

  • no es silenciado,

  • pero es funcionalmente aislado del resto de la red.

Y es un encapsulamiento de borde porque ocurre precisamente en la interfaz entre el sistema y su entorno humano: una zona donde se permite la expresión, pero no la articulación; donde se admite la participación, pero no la agencia relacional.