Elon Musk libera el algoritmo de recomendación de X y revela cómo se rankean las ideas en la plataforma

Elon Musk libera el algoritmo de recomendación de X y revela cómo se rankean las ideas en la plataforma

Como si no fuera suficiente con que tu cuenta bancaria, tu historial crediticio o tus credenciales académicas ya estén traducidas a números, ahora también lo están tus ideas.

Esta semana, Elon Musk, dueño de X (antes Twitter), liberó el algoritmo de recomendación de la plataforma. El código, escrito en Rust y publicado en un repositorio de GitHub, reveló con claridad el núcleo del sistema: las publicaciones son evaluadas, clasificadas y ordenadas mediante un modelo de optimización de reacción, impulsado por el mismo tipo de arquitectura transformer que utiliza Grok.

En términos simples, cada post, sin importar si tomó segundos o días producirlo, atraviesa el mismo filtro algorítmico y recibe una calificación numérica que determina su visibilidad.

La parte central del algoritmo de X no es la recuperación de contenidos ni la personalización, sino el scoring: el momento en que cada publicación es traducida a un valor numérico. En ese punto, todo contenido, independientemente del tiempo, el esfuerzo o la complejidad que haya implicado producirlo, es evaluado bajo el mismo criterio.

Este gesto no es nuevo. Como señaló el filósofo Giorgio Agamben, a finales del siglo XIX la identidad dejó de depender del reconocimiento social para ser definida por sistemas de medición administrados por máquinas. La antropometría de Alphonse Bertillon y la clasificación de huellas dactilares de Francis Galton marcaron el paso de una concepción social de la persona a una concepción técnica y cuantificable.

El scoring algorítmico prolonga esa lógica, pero la desplaza del cuerpo al pensamiento. Las ideas ya no circulan en función de su comprensión o de su valor simbólico, sino de su rendimiento estadístico esperado. El pensamiento, así, se vuelve legible solo en la medida en que puede ser medido.

No se trata de censura ni de control ideológico, sino de una forma de positivismo tardío: una lectura del mundo que reconoce únicamente aquello que puede ser reducido a datos.

Durante años, el debate sobre la visibilidad en redes sociales se ha movido entre dos extremos: la acusación de censura y la defensa de la neutralidad algorítmica. Sin embargo, la decisión de Elon Musk de liberar el código del sistema de recomendaciones de X el 19 de enero permitió observar un fenómeno más complejo y menos visible. El problema no es que ciertos contenidos sean eliminados, sino que el diseño del ranking favorece de manera sistemática aquello que genera interacciones claras, rápidas y predecibles, dejando fuera del campo visible otros tipos de discurso. La clave está en cómo se define la “relevancia”.

Optimizar reacciones no es medir valor

De acuerdo con el código liberado por Musk, el feed For You de X se construye a partir de un sistema que estima probabilidades de acción: qué tan probable es que un usuario dé “me gusta”, responda, comparta, haga clic o abandone un contenido. Estas predicciones se combinan mediante una suma ponderada que incluye tanto señales positivas como negativas; por ejemplo, marcar un contenido como “no me interesa”, silenciar o bloquear a un autor, producen un puntaje final que decide qué se muestra primero y qué queda relegado.

Este mecanismo no evalúa la calidad, la profundidad ni la veracidad del contenido. Evalúa la probabilidad de reacción y, de manera igualmente importante, el riesgo de rechazo. Desde el punto de vista del sistema, minimizar la fricción es tan relevante como maximizar la interacción.

El resultado es una forma específica de selección: se privilegia lo que activa respuestas inmediatas y consensuables, y se penaliza lo que introduce ambigüedad, incomodidad o lectura lenta.

¿Qué es Phoenix y por qué importa?

Para entender cómo opera esta lógica, es clave comprender el papel de Phoenix, uno de los componentes centrales del algoritmo.

En términos simples, Phoenix no decide qué es verdadero ni qué es importante. Su función es estimar qué haría un usuario frente a un contenido específico. Phoenix opera en dos momentos distintos del proceso:

Primero, como sistema de exploración, selecciona publicaciones de cuentas que el usuario no sigue, pero que podrían resultar relevantes según patrones previos de comportamiento. Es el mecanismo que permite el “descubrimiento” fuera de la red inmediata del usuario.

Después, como sistema de predicción, Phoenix analiza cada publicación candidata y calcula probabilidades: la probabilidad de que el usuario le dé “me gusta”, responda, la comparta, la ignore o incluso la rechace. Estas estimaciones no se basan en el contenido en sí, sino en la comparación con millones de interacciones pasadas.

El algoritmo no pregunta: ¿esto es valioso? Pregunta: ¿qué es lo más probable que ocurra si muestro esto? Las predicciones de Phoenix se convierten en números que luego son combinados por el sistema de ranking. Aquello que tiene altas probabilidades de generar interacción positiva y bajas probabilidades de rechazo asciende en el feed. Lo que genera respuestas inciertas o silenciosas pierde prioridad. En otras palabras, Phoenix no censura contenidos: reduce el espacio de lo impredecible.

La paradoja de la personalización

Aquí aparece la ironía central. X no busca promover contenido superficial. Su objetivo declarado es mostrar a cada usuario aquello que le interesa genuinamente. Sin embargo, al medir ese interés a través de interacciones observables, el sistema termina favoreciendo contenidos superficialmente eficientes: fáciles de consumir, emocionalmente claros y de bajo costo cognitivo.

El contenido más denso o intelectual suele producir otro tipo de relación: se lee en silencio, no siempre genera consenso, no produce señales claras de aprobación. Para el algoritmo, ese silencio no equivale a interés. Es una ausencia de datos. Y lo que no genera datos no compite en el ranking.

El papel de lo transmediático

Este efecto no puede explicarse solo por el diseño interno de la plataforma. El algoritmo opera sobre señales que no son completamente orgánicas, sino el resultado de entrenamientos culturales previos. Antes de llegar a X, los usuarios ya han aprendido cómo reaccionar ante ciertos formatos a través de otros medios: televisión, publicidad, plataformas de video, redes sociales anteriores.

Por eso, los contenidos que mejor funcionan son aquellos transmediáticos: reconocibles de inmediato, basados en códigos narrativos ya entrenados masivamente indignación breve, escándalo, humor reactivo, simplificaciones ideológicas. Frente a ellos, la respuesta del usuario es casi automática. El “me gusta” no es una deliberación, sino un hábito.

En este contexto, el algoritmo no crea la superficialidad. La detecta y la amplifica, porque es la que produce señales claras, abundantes y de bajo riesgo.

Consenso no es comprensión

Cuando la visibilidad se decide por agregación de aprobación, el sistema no eleva lo más inteligente, sino lo más consensuable. Y lo consensuable rara vez coincide con lo más exigente desde el punto de vista cognitivo.

Esto no implica que el contenido popular carezca de valor ni que la inteligencia esté reservada a minorías. El problema surge cuando la popularidad se convierte en el criterio dominante de relevancia y desplaza otras formas de valor: la complejidad, la exploración, la contradicción o el pensamiento incómodo.

El resultado no es una censura explícita, sino un desacoplamiento progresivo de ciertos discursos del grafo de recomendación.

Un problema de diseño, no de intención

La liberación del código el 19 de enero no resuelve estos dilemas, pero sí los vuelve visibles. El problema del modelo de X no parece ser ideológico, sino estructural: optimizar para el contenido más consumible maximiza interacciones a corto plazo, pero dificulta la construcción de espacios sostenibles de conversación.