Meta lanza un modelo que predice respuestas cerebrales en plena tormenta judicial por adicción en Instagram

Meta lanza un modelo que predice respuestas cerebrales en plena tormenta judicial por adicción en Instagram

TRIBE v2 integra video, audio y lenguaje para anticipar actividad neural humana; el anuncio llega días después de dos veredictos contra Meta por daños a menores y reabre preguntas sobre percepción, atención y poder cognitivo en la era de la IA

Meta presentó este jueves TRIBE v2, un modelo fundacional trimodal de video, audio y lenguaje que, según la propia compañía, puede predecir la actividad cerebral humana ante estímulos visuales, sonoros y textuales. La empresa lo describe como una herramienta para crear un “digital twin” de la actividad neural y para avanzar en lo que llama in-silico neuroscience, es decir, experimentación computacional sobre el cerebro sin depender cada vez de nuevos escaneos humanos.

De acuerdo con Meta, TRIBE v2 fue entrenado con más de 500 horas de fMRI de más de 700 personas y puede hacer predicciones zero-shot para nuevos sujetos, idiomas y tareas. El modelo combina representaciones de video, audio y lenguaje, y la empresa liberó junto con el anuncio un paper, código, pesos y una demo interactiva para investigadores. En términos técnicos, no se trata solo de otro modelo multimodal para entender contenido: la ambición declarada es más específica y más delicada, porque busca aproximarse a cómo organiza el cerebro humano lo que ve, oye y lee.

El detalle técnico más interesante es que TRIBE v2 no nació de cero. Meta lo construyó sobre una pila de modelos ya conocida dentro de su ecosistema: V-JEPA 2 para video, Wav2Vec-BERT para audio y Llama 3.2 para texto, integrados después en un sistema orientado a predicción neural. Esa arquitectura lo acerca a la ola más amplia de sistemas que intentan unificar percepción, representación y cognición, aunque aquí el objetivo no sea planear acciones en el mundo físico, sino modelar cómo el cerebro responde cuando percibe ese mundo.

El momento del anuncio, sin embargo, vuelve imposible leer el lanzamiento como una simple novedad de laboratorio. Esta misma semana, un jurado de Los Ángeles concluyó que Meta y Google fueron responsables por daños a la salud mental de una joven que alegó adicción a Instagram y YouTube. El veredicto otorgó 6 millones de dólares en daños y repartió la responsabilidad en 70% para Meta y 30% para Google, al considerar que ambas compañías actuaron con negligencia en el diseño u operación de sus plataformas y no advirtieron adecuadamente sus riesgos.

El golpe judicial no fue aislado. En Nuevo México, otro jurado ordenó a Meta pagar 375 millones de dólares por violaciones a leyes estatales de protección al consumidor, en un caso centrado en seguridad infantil y explotación sexual facilitada por sus plataformas. Reuters reportó que el fallo podría abrir la puerta a remedios aún más agresivos en una segunda fase del proceso, incluyendo restricciones de diseño y supervisión externa. En los mercados, la señal fue clara: las acciones de Meta cayeron después de que inversionistas empezaran a medir el riesgo de una nueva ola de litigios contra el diseño de sus productos.

En ese contexto, TRIBE v2 adquiere una carga política y cultural que va más allá de su valor científico. Meta lo presenta como una herramienta para entender el cerebro, avanzar en neurociencia y eventualmente habilitar aplicaciones en interfaces cerebro-computadora o salud. Pero la empresa lanza ese mensaje justo cuando enfrenta decisiones judiciales que cuestionan la manera en que sus plataformas capturan atención, inducen hábito y dañan a usuarios jóvenes. Por eso, aunque no haya evidencia pública de que TRIBE v2 vaya a usarse directamente en producto, el anuncio inevitablemente se lee bajo otra luz: cualquier avance de Meta que toque percepción, respuesta cognitiva o modelado cerebral entra ya en una zona de sensibilidad mucho mayor.

La tensión no es menor porque el modelo llega, además, en medio de un giro más amplio de la industria hacia el mundo físico, la inteligencia embodied y modelos cada vez más integrados de percepción. Meta ya había presentado V-JEPA 2 como un “world model” entrenado con video para comprensión, predicción y planeación; NVIDIA empuja physical AI y modelos de mundo con Cosmos; y Google acaba de lanzar una herramienta de “vibe coding” para experiencias XR con física. En ese ecosistema, TRIBE v2 parece agregar otra capa: no solo sistemas que entienden el entorno, sino sistemas que también buscan modelar cómo lo procesa el cerebro humano.

Esa ambición conecta con otro frente que se está moviendo con fuerza: el de la inteligencia general artificial entendida no ya solo como escalamiento de texto, sino como integración de percepción, acción y cognición. En los últimos días, Meta ha enfriado parte de su apuesta por el metaverso mientras refuerza investigación en modelos del mundo; Google DeepMind publicó un marco para medir progreso hacia la AGI desde capacidades cognitivas; y China incorporó en su nuevo plan quinquenal referencias explícitas a embodied intelligence y a la exploración de rutas hacia la AGI. TRIBE v2 no declara por sí mismo una marcha hacia la AGI, pero sí encaja en ese desplazamiento conceptual: el centro de gravedad de la industria ya no está solo en hablar mejor, sino en ver, oír, representar, anticipar y aproximarse a formas más complejas de cognición.