Ectojeto: el fantasma computable expulsado del centro

Ectojeto: el fantasma computable expulsado del centro

Nos gustaría echarle la culpa a la inteligencia artificial. Sería cómodo decir que la IA llegó a deshumanizarlo todo: el trabajo, el Estado, la educación, la política, los vínculos, la vida cotidiana. Pero sería falso. La IA no inventó la reducción del sujeto a dato. Esa operación ya existía antes: en el expediente, en el folio, en el padrón, en la nómina, en la ficha médica, en el buró de crédito, en el archivo civil, en el número de empleado, en la credencial, en el registro electoral.

Antes de que la inteligencia artificial clasificara personas, la burocracia ya había aprendido a convertirlas en registros. Antes de que los modelos predictivos perfilaran comportamientos, el mercado ya había aprendido a traducir deseos en segmentos. Antes de que un algoritmo decidiera si alguien era elegible, riesgoso, rentable o descartable, el sistema ya había preparado la escena: había enseñado a las instituciones a ver menos sujetos y más formatos.

En cómputo, una extensión le dice al sistema cómo abrir un archivo. No basta con que exista un contenido: debe tener una forma reconocible. .docx, .pdf, .jpg, .csv. La extensión no es solo un detalle técnico; es una instrucción de lectura. Le dice al sistema qué puede hacer con aquello que tiene enfrente.

Algo parecido ocurre con los humanos cuando entran a los sistemas administrativos, laborales, financieros o políticos. Una persona llega en crudo: con cuerpo, historia, memoria, contradicción, deseo, miedo, contexto, lenguaje propio. Pero ningún sistema rígido puede procesar esa complejidad completa. Para administrarla necesita darle formato.

Entonces la persona deja de ser recibida como totalidad y empieza a ser convertida en una tupla administrable: persona_formateada = ("expediente", "folio", "CURP", "número de cliente", "score", "historial", "beneficiario", "riesgo", "votante", "usuario", "caso").

El sistema no reconoce personas: reconoce formatos.

A esta operación podríamos llamarla datificación del sujeto. Pero incluso esa expresión empieza a quedarse corta. Porque no se trata solo de convertir a alguien en dato. Se trata de producir una versión administrable de la persona: una identidad mínima, legible, clasificable e intercambiable. Una identidad que no sustituye del todo a la persona viva, pero que sí puede imponerse sobre ella.

Una persona puede decir: “esto soy”, “esto me pasó”, “esto cambió”, “ese dato está mal”. Pero si el sistema conserva otra versión, gana el sistema. La identidad vivida queda subordinada a la identidad registrada. La subjetividad tiene que comparecer ante el dato para demostrar que todavía existe.

La burocracia moderna ya había sido pensada como una maquinaria de racionalización. Max Weber (1922) vio en ella una forma de organización basada en reglas, expedientes, jerarquías, procedimientos y cálculo. Esa racionalidad prometía eficiencia, pero también producía una jaula: un mundo donde las decisiones se vuelven impersonales y las personas quedan atrapadas en estructuras cada vez más rígidas.

Michel Foucault (1975) describió otra dimensión de esa historia: la disciplina. El sujeto moderno no solo era registrado; era observado, examinado, normalizado, corregido. La vigilancia no funcionaba únicamente como castigo, sino como producción de cuerpos útiles, dóciles, medibles. El examen disciplinario transformaba a la persona en caso: algo que podía ser descrito, comparado, diagnosticado y administrado.

Pero el presente parece estar empujándonos hacia otra fase. Gilles Deleuze (1995), en su lectura sobre las sociedades de control, sugirió que el individuo empezaba a fragmentarse en algo distinto: ya no solo el cuerpo encerrado de las instituciones disciplinarias, sino una unidad divisible, modulable, codificada. El individuo se volvía “dividual”: fragmentos, muestras, datos, bancos de información. Esa intuición ayuda a entender el salto del sujeto disciplinado al sujeto computable.

Después, los estudios de vigilancia hablaron del data double, el doble de datos: una representación virtual de la persona construida con rastros dispersos. Haggerty y Ericson (2000) describieron cómo los flujos de información se recombinan en distintos lugares para producir dobles virtuales de los cuerpos. El sujeto ya no aparece solo donde está físicamente; aparece también en sus rastros, sus registros, sus movimientos, sus transacciones.

Oscar Gandy (1993) llamó la atención sobre el panoptic sort, una economía política de la información personal en la que gobiernos y empresas reúnen, procesan y usan datos para administrar oportunidades sociales, económicas y políticas. Este punto es clave: la clasificación no es neutral. Clasificar también es distribuir acceso, riesgo, visibilidad, crédito, sospecha, valor.

Con las plataformas digitales y el capitalismo de vigilancia, la experiencia humana se volvió materia prima para producir predicciones. Shoshana Zuboff (2019) nombró ese proceso como extracción de excedente conductual: datos derivados de la conducta que son procesados para anticipar acciones futuras y, en algunos casos, intervenir sobre ellas.

La IA llega entonces a un mundo que ya había sido preparado para leer personas como datos. No inventa la datificación; la acelera. No inventa la clasificación; la multiplica. No inventa la vigilancia; la vuelve más granular, más automatizada y más difícil de discutir.

Antes el sistema clasificaba con categorías relativamente gruesas, casi binarias: ("empleado/desempleado", "ciudadano/extranjero", "aprobado/rechazado", "beneficiario/no beneficiario", "deudor/no deudor"). Con IA, la clasificación deja de operar como casilla y empieza a funcionar como gradiente: ("probable deudor", "trabajador automatizable", "usuario vulnerable", "candidato descartable", "ciudadano de alto riesgo", "consumidor influenciable", "paciente prioritario", "sujeto no rentable", "perfil sospechoso").

La burocracia convirtió al sujeto en expediente. El mercado lo convirtió en perfil. La IA lo convierte en probabilidad.

Ese es uno de los cambios centrales. El sujeto ya no solo es registrado por lo que hizo; es inferido por lo que podría hacer. Ya no se le administra únicamente desde su pasado, sino desde una predicción de futuro. El sistema no pregunta solamente quién eres, sino qué probabilidad representas.

Podríamos pensar que mientras más datos tiene un sistema sobre una persona, más importante se vuelve esa persona. Ocurre lo contrario. Mientras más computable se vuelve el sujeto, más fácil es imaginar su sustitución. El sistema lo lee, lo mide, lo clasifica y lo modela no necesariamente para reconocerlo, sino para extraer de él patrones, funciones y decisiones que después puedan automatizarse.

El sistema computa al sujeto para hacerlo legible, pero una vez que lo vuelve legible, empieza a considerarlo innecesario. Esta es la paradoja del nodo humano.

Durante mucho tiempo, el sujeto fue un nodo indispensable dentro del sistema: roles_humanos = ("trabajador", "ciudadano", "operador", "burócrata", "cajero", "maestro", "periodista", "analista", "gestor", "votante", "consumidor"). El sistema podía explotarlo, disciplinarlo, vigilarlo o precarizarlo, pero todavía dependía de su presencia. Necesitaba que alguien interpretara, decidiera, atendiera, escribiera, cuidara, ejecutara y respondiera.

Pero los sistemas rígidos no aman los nodos humanos. Los toleran mientras son necesarios. Un nodo humano introduce fricción: interpreta, se equivoca, negocia, se cansa, protesta, cuida, se demora, desobedece, recuerda, siente. Para un sistema obsesionado con eficiencia, rentabilidad o control, esa fricción aparece como problema.

Por eso el sistema empieza a preferir una arquitectura de flujos: flujo_ideal = ("sin interrupción", "sin negociación", "sin demora", "sin sujetos en medio", "con aristas libres", "con nodos artificiales").

La automatización aparece entonces como una fase superior de la datificación. Primero se registra al sujeto. Luego se le clasifica. Después se le predice. Más tarde se extrae su función. Finalmente, se intenta reorganizar el sistema para depender menos de su presencia.

No se automatiza porque el sujeto haya dejado de existir. Se automatiza porque el sistema ya extrajo suficientes datos para imaginar cómo operar sin él.

Aquí es donde el concepto de sujeto empieza a fallar.

“Sujeto” todavía implica sujeción. La palabra proviene del latín subiectus, participio de subicere: poner debajo, colocar bajo algo. Está formada por sub-, debajo, y iacere, lanzar, tirar, colocar. En su origen, el sujeto es aquello que ha sido puesto debajo, aquello sobre lo que algo descansa, pero también aquello que queda colocado bajo una estructura.

Por eso la palabra sujeto conserva una carga de subordinación y pertenencia. El sujeto está debajo del sistema, atado a él, producido por él, reconocido por él, administrado por él. Puede ser vigilado, explotado o disciplinado, pero sigue ocupando una posición interna: todavía sostiene algo, todavía pertenece a la arquitectura que lo somete. Lo que aparece ahora es distinto: un sistema que ya no quiere sujetar al sujeto, sino extraerle sus funciones, desplazarlo del centro y empujarlo hacia afuera.

Por eso no estamos hablando solo de un sujeto datificado. Tampoco únicamente de un sujeto perfilado, ni de un doble de datos, ni de una identidad algorítmica. Estamos ante una figura posterior: un residuo operativo, un fantasma funcional, una presencia sin cuerpo político completo.

A esa figura podemos llamarla ectojeto.

La palabra no es casual. El prefijo ecto- proviene del griego antiguo ektós, que significa fuera, hacia afuera, en el exterior. Por eso no hablamos ya de sujeto, sino de ectojeto: una figura que conserva el resto de la sujeción, pero ha sido desplazada hacia el exterior operativo del sistema. El sujeto está debajo. El ectojeto está afuera. O casi afuera.

El sujeto estaba puesto bajo una estructura. El ectojeto es empujado hacia el exterior de esa estructura después de que el sistema extrajo de él datos, saberes, patrones y funciones.

Ectojeto: figura residual del sujeto que, tras ser datificado, clasificado y parcialmente transferido a procesos automatizados, es desplazado hacia el exterior operativo del sistema. Ya no ocupa el centro de ejecución, decisión o procesamiento; permanece en la periferia como supervisor, entrenador, validador, corrector o respaldo de una máquina que avanza hacia su reemplazo. El ectojeto no ha sido completamente expulsado, pero ya perdió prioridad sistémica: sigue atado a la estructura que lo empuja hacia afuera.

El ectojeto no es el sujeto vigilado, disciplinado o convertido en dato. Es lo que queda cuando el sistema conserva la función y empieza a expulsar la presencia. El ectojeto es el trabajador después de que su tarea fue convertida en flujo. Es el ciudadano después de que su demanda fue reducida a trámite. Es el usuario después de que su conducta fue transformada en predicción. Es el votante después de que su voluntad fue sustituida por segmentación. Es el cuerpo después de que su historia fue comprimida en riesgo. Es la persona después de que el sistema aprendió a usar su rastro sin necesitar plenamente su voz.

Pero el ectojeto no aparece únicamente cuando el sistema extrae del sujeto datos y funciones. Aparece cuando, después de esa extracción, la presencia humana empieza a ser percibida como obstáculo para la automatización completa. El sujeto ya no es el centro de la operación, pero tampoco ha sido expulsado del todo. Permanece como residuo de transición: rol_residual = ("supervisor", "corrector", "validador", "responsable legal", "rostro público", "amortiguador de errores").

La máquina no lo desea, pero todavía no puede soltarlo completamente. O quizá sí lo conserva por deseo propio del sistema, pero solo de manera temporal: mientras termina la transferencia de funciones hacia procesos automatizados. En esa fase intermedia, el ectojeto sigue atado a la máquina no porque sea prioritario, sino porque todavía sirve para entrenarla, corregirla, justificarla o absorber sus fallas. El ectojeto no está afuera del sistema por completo. Está afuera del centro.

Esa diferencia importa. La expulsión contemporánea no siempre consiste en echar al sujeto fuera de inmediato. A veces consiste en dejarlo casi afuera: dentro de la empresa, pero fuera del núcleo de decisión; dentro del Estado, pero fuera de la interpretación; dentro de la plataforma, pero fuera del control; dentro del proceso, pero solo como verificador de una operación que ya no le pertenece.

Hay una escena particularmente reveladora de esta transición: empresas que piden a sus empleados entrenar a los modelos de inteligencia artificial que eventualmente podrían reemplazarlos. Ahí aparece una forma extrema de desposesión funcional. El trabajador ya no es requerido como ejecutor central de la tarea, sino como mediador de su propia sustitución. Su conocimiento, su experiencia y sus criterios son capturados para ser transferidos a un sistema automatizado.

Pero ese proceso no ocurre sin conflicto. Algunos empleados resisten. Ralentizan. Sabotean. Evalúan mal. Ocultan saberes. Usan herramientas no autorizadas. Introducen datos sensibles en sistemas públicos. Desconfían de los procesos de adopción de IA. Desde la empresa, estas conductas pueden aparecer como fallas de adaptación o sabotaje. Desde el ectojeto, aparecen como fricción política: la resistencia menor, dispersa, a veces torpe, de quien entiende que está colaborando con su propia expulsión.

En el vocabulario empresarial ya empieza a circular una sigla reveladora: FOBO, Fear of Becoming Obsolete, miedo a volverse obsoleto. La expresión intenta nombrar la ansiedad de los trabajadores frente a la automatización, pero también delata algo más profundo: la resistencia del sujeto que intuye su desplazamiento hacia la condición de ectojeto.

FOBO no es solo miedo a quedarse sin trabajo. Es miedo a ser convertido en función transferible. El trabajador teme volverse obsoleto porque percibe que ya fue desplazado del centro: sigue dentro de la empresa, pero ahora como supervisor, entrenador, validador o corrector de una automatización que avanza hacia su exteriorización. El sistema le pide que documente procesos, corrija errores, entrene modelos, valide respuestas y legitime herramientas. Pero al hacerlo, el trabajador entiende que está ayudando a construir una arquitectura donde su presencia será cada vez menos prioritaria.

El FOBO describe el miedo. El ectojeto describe la posición. La empresa llama sabotaje a lo que quizá también puede leerse como resistencia del ectojeto: la negativa del sujeto a transferir limpiamente sus saberes hacia una máquina diseñada para volverlo periférico. Por eso da miedo. El terror contemporáneo no es solo que los sistemas nos controlen. El control todavía necesita a alguien adentro. El terror es que nos conozcan lo suficiente para dejar de necesitarnos.

El ectojeto da miedo porque no representa la muerte simple del sujeto, sino su supervivencia sin centralidad. El sujeto ya no está en el núcleo, pero su patrón permanece. Su trabajo ya no organiza el proceso, pero su función fue modelada. Su voz ya no manda, pero su historial sigue circulando. Su cuerpo puede ser empujado hacia la periferia del flujo, pero sus datos continúan trabajando para el sistema.

Es una forma de fantasma técnico. Y no aparece únicamente en la inteligencia artificial. Aparece en cualquier sistema que rigidiza sus procesos hasta volver prescindible la interpretación humana. En el trabajo, cuando la persona se vuelve KPI y después costo reducible. En el Estado, cuando el ciudadano se vuelve padrón, trámite o folio. En la política, cuando la vida pública se reduce a calendario electoral y la ciudadanía se convierte en target. En la educación, cuando el aprendizaje se vuelve métrica. En la salud, cuando el paciente se vuelve expediente. En las plataformas, cuando el usuario se vuelve comportamiento predecible.

En México, la partidocracia ofrece una imagen clara de esta rigidez: un sistema político que dice representar ciudadanos, pero organiza su energía alrededor de elecciones, partidos, cuotas, campañas, padrones y cálculos de poder. El ciudadano aparece como centro simbólico, pero en la práctica se vuelve insumo electoral. No es escuchado como sujeto político pleno; es procesado como voto, segmento, beneficiario, simpatizante, encuesta, territorio, operación.

La rigidez del sistema desplaza la subjetividad. Mientras más rígido se vuelve un sistema laboral, más fácil es despedir personas rápido. Mientras más rígido se vuelve un sistema de registros, más difícil es corregir un dato aunque la persona viva diga otra cosa. Mientras más rígido se vuelve un gobierno, más difícil es poner ciudadanos al centro. Mientras más rígida se vuelve una plataforma, más opaca se vuelve la decisión. Y mientras más rígido se vuelve un sistema automatizado, menos espacio queda para la excepción, la explicación, la reparación o el cuidado.

La IA puede servirle al sistema precisamente para eso: para volverse más rígido. No porque la IA sea, por sí misma, una fuerza maligna. Sino porque puede convertir decisiones históricamente discutibles en operaciones aparentemente técnicas. Puede hacer que una exclusión parezca resultado de un modelo, no de una decisión política. Puede volver más difícil identificar quién decidió, bajo qué criterio, con qué responsabilidad y con qué posibilidad de apelación.

La IA no sustituye únicamente sujetos. También puede sustituir márgenes de interpretación. A ese proceso podríamos llamarlo rigidización algorítmica: el endurecimiento de sistemas que usan datos, modelos y automatización para reducir excepción, negociación y revisión humana. No es solo que el sistema procese más rápido. Es que al procesar más rápido empieza a tolerar menos aquello que no puede procesar.

El sujeto vivo conserva una zona no procesable: ("ambigüedad", "contradicción", "reclamo", "historia", "interpretación"). El ectojeto aparece como su reverso operativo: ("computable", "clasificable", "señalizable", "historializable", "operable").

Por eso el ectojeto no es una metáfora decorativa. Es una figura política. Nombra una forma de existencia producida por sistemas que primero necesitan sujetos, luego los convierten en datos, después extraen sus funciones y finalmente reorganizan sus flujos para no depender de ellos.

Referencias 

Deleuze, Gilles. (1995) “Post-scriptum sobre las sociedades de control”, en Conversaciones. Valencia: Pre-Textos.

Foucault, Michel. (1975) «Vigilar y castigar: nacimiento de la prisión».

Gandy Jr., Oscar H. (1993) «The Panoptic Sort: A Political Economy of Personal Information». Nueva York: Oxford University Press.

Haggerty, K. D., & Ericson, R. V. (2000). The surveillant assemblage. The British Journal of Sociology, 51(4), 605–622.

Weber, Max.(1922) Economía y sociedad. México: Fondo de Cultura Económica.

WRITER. (2026, April 7). Enterprise AI adoption in 2026: Why 79% face challenges despite high investment. WRITER.

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *