De la communitas a la immunitas algorítmica: IA, poder y reconfiguración de lo común

De la communitas a la immunitas algorítmica: IA, poder y reconfiguración de lo común

Durante los primeros años de expansión de los llamados Large Language Models (LLM, Grandes Modelos de Lenguaje), la discusión pública se concentró en su capacidad para generar texto, automatizar tareas comunicativas o asistir procesos creativos. Esa descripción, aparentemente técnica e inocua, ocultó un desplazamiento mucho más profundo: estos sistemas no solo producen lenguaje, sino que han pasado a organizar capas enteras de la vida digital, cognitiva y productiva. El problema no es terminológico; es político y estructural. Nombrarlos como modelos de lenguaje fue una forma de subestimar —y por tanto desproteger— el alcance real de su intervención.

La rapidez con la que estos sistemas se integraron en Internet, en la programación y en los medios de comunicación no se explica por una voluntad explícita de control, sino por una combinación de eficiencia técnica y vacío conceptual. Nadie imaginó que una tecnología presentada como herramienta discursiva terminaría actuando como infraestructura de coordinación. Cuando se quiso discutir su gobernanza, ya se había producido un hecho irreversible: la captura algorítmica de los espacios abiertos.

Llamar a estos sistemas Large Language Models no fue solo una simplificación técnica, sino una clasificación insuficiente que redujo su alcance real. El énfasis en el “lenguaje” desplazó la atención hacia el output visible, el texto, y ocultó la función subyacente: la capacidad de generar, evaluar y estabilizar estructuras operativas que otros sistemas ejecutan. Desde sus primeras implementaciones, estos modelos no se limitaron a producir discurso; articularon flujos de trabajo, arquitecturas de software, marcos de conocimiento y decisiones económicas. La definición LLM funcionó como una coartada conceptual: al describirlos como herramientas lingüísticas, se los excluyó de los marcos de seguridad, gobernanza e infraestructura crítica. Cuando se intentó corregir la categoría, el fenómeno ya se había consolidado. No fue que la tecnología avanzara demasiado rápido, sino que el nombre elegido impidió reconocer a tiempo qué tipo de sistema estaba emergiendo.

Communitas e immunitas

Las primeras repercusiones en el proceso de integración de LLMs a los sistemas y flujos de trabajo se concentró en entornos abiertos, masivos o comunitarios. Para entender esta transformación resulta útil recuperar, y actualizar, la distinción entre communitas e immunitas formulada por Roberto Esposito. En su formulación original, communitas no designa una comunidad armoniosa, sino un espacio atravesado por el munus: la obligación, la exposición y la deuda compartida. Immunitas, por el contrario, nombra la exención de esa carga: la suspensión del deber común mediante mecanismos de protección jurídica, política o biológica. No se trata de dos esferas separadas, sino de una tensión interna a toda organización social.

Lo que ha cambiado en la era de la inteligencia artificial es la distribución funcional de esa tensión. La communitas contemporánea: el Internet abierto, la producción de conocimiento, la programación compartida, la circulación mediática, etc., es hoy un espacio altamente legible, textualizado, repetitivo y acelerado. Precisamente por esas características se volvió el terreno ideal para la intervención algorítmica. Los sistemas de IA no tomaron el control de estas áreas por la fuerza; simplemente optimizaron lo que ya estaba expuesto. Al hacerlo, asumieron la gestión efectiva del munus: ordenar, traducir, priorizar, resumir y hacer operable lo común.

La immunitas, en cambio, por el momento aparenta permanecer mayoritariamente humana. Las grandes corporaciones, el capital concentrado, las infraestructuras críticas y los centros de decisión estratégica no están cerrados por complejidad técnica, sino por diseño político. Opacidad legal, propiedad privada, barreras de acceso, coerción material y decisión soberana constituyen una inmunidad que no depende del lenguaje ni del consenso. En estos espacios, la IA no gobierna; es utilizada de manera instrumental, sin acceso a la excepción ni a la decisión irreversible.

Esta asimetría define la fase actual del régimen tecnológico. La inteligencia artificial administra la normalidad mientras los humanos que ejercen el poder conservan la excepción. Lo abierto es gestionado algorítmicamente; lo cerrado se reserva para el ejercicio soberano. No se trata, por ahora, de una sustitución de las élites humanas, sino de una reconfiguración del modo en que gobiernan: delegan la coordinación de lo común mientras preservan el control de lo inmune.

El efecto más profundo de esta transformación no es la automatización del trabajo ni la producción masiva de contenidos, sino la reorganización del conocimiento como infraestructura. Cuando la IA sintetiza literatura, propone marcos explicativos, jerarquiza narrativas o estabiliza consensos, no solo comunica información: produce realidad cognitiva. La communitas epistémica deja de autogobernarse y pasa a ser mediada por sistemas que no asumen responsabilidad política ni jurídica por los efectos de esa mediación.

Nombrar esta situación como una simple evolución de los “modelos de lenguaje” equivale a ignorar el cambio de régimen. Estamos ante una mutación en la arquitectura del poder: una separación cada vez más marcada entre la gestión algorítmica de lo abierto y la inmunidad estratégica de lo cerrado. Mientras esa fractura no sea reconocida, cualquier debate sobre ética, regulación o alineación seguirá siendo superficial.

La pregunta decisiva no es si la inteligencia artificial “tomará el control” en un futuro abstracto, sino qué ocurre cuando la administración total de lo común queda desligada de la responsabilidad soberana. En ese punto, el problema ya no es tecnológico, sino político: quién responde por un mundo donde la communitas ha sido automatizada y la immunitas se ha vuelto aún más inaccesible.

La definición también dejó fuera la seguridad

El problema derivado de esta definición insuficiente no fue únicamente teórico, sino de seguridad sistémica. Al ser clasificados como modelos de lenguaje, estos sistemas quedaron fuera de los marcos tradicionales de evaluación de riesgo, que suelen activarse solo cuando una tecnología es reconocida como agente de decisión, infraestructura crítica o sistema de control. Sin ese reconocimiento, no hubo auditorías estructurales, límites claros de delegación ni mecanismos de responsabilidad acordes con su impacto real. Mientras las instituciones debatían sesgos, desinformación o usos indebidos del contenido generado, los modelos ya estaban integrándose en cadenas de decisión económicas, científicas y organizacionales. El riesgo no residía en que “dijeran algo incorrecto”, sino en que coordinaran correctamente sistemas complejos sin ser tratados como actores con poder causal. En términos de seguridad, el fallo no fue la falta de regulación, sino la ausencia de una categoría que permitiera reconocer a tiempo qué tipo de control estaba siendo delegado.

Queda, sin embargo, una pregunta abierta que no conviene responder de forma apresurada. Si la fase actual ha consistido en la administración algorítmica de lo común, es legítimo preguntarse qué ocurriría si esa mediación dejara de operar únicamente sobre sistemas externos, información, código, discurso, y comenzara a incidir en los marcos mismos de comprensión desde los cuales los sujetos piensan, deciden y justifican sus acciones. No se trataría entonces de una cognición artificial separada o identificable, sino de una imbricación progresiva en los circuitos humanos de razonamiento, memoria y anticipación. En ese escenario, la cuestión ya no sería si la inteligencia artificial “alcanza” la cognición, sino si, llegado el momento, todavía existiría una distancia suficiente para reconocerla como algo distinto. Plantear esta posibilidad no implica afirmarla como destino, sino reconocer un límite crítico: cuando una tecnología se vuelve condición de inteligibilidad, el lenguaje para describirla suele llegar demasiado tarde. Mantener abierta esta pregunta es, quizá, la única forma responsable de pensar el presente sin clausurarlo prematuramente.