Meta, OpenAI y Anthropic colocaron esta semana una misma idea en el centro de la conversación sobre inteligencia artificial: la superinteligencia. Pero detrás de esa palabra no hay una definición única ni una realidad ya consumada, sino tres movimientos distintos. OpenAI la presenta como una transición histórica que exige rediseñar el contrato social; Meta la usa para vender el comienzo de una nueva generación de asistentes integrados a su ecosistema; y Anthropic, sin hacer tanto marketing del término, exhibió un modelo tan riesgoso para la ciberseguridad que decidió no liberarlo al público.
En el caso de OpenAI, la empresa define la superinteligencia como sistemas capaces de superar a los humanos más inteligentes incluso cuando estos cuentan con ayuda de IA. Sobre esa base, publicó un documento de política pública donde plantea ideas como acceso amplio a modelos fundacionales, pilotos de semana laboral de cuatro días sin reducción salarial y un fondo público para repartir parte de la riqueza generada por la IA. El texto incluso reconoce un riesgo incómodo: que esas ganancias terminen concentradas en unas cuantas firmas, “como OpenAI”.
Meta eligió un tono distinto. El lanzamiento de Muse Spark, primer modelo de Meta Superintelligence Labs, fue presentado como un paso hacia la “superinteligencia personal”: una IA pensada para entender el contexto del usuario y operar dentro de productos como Meta AI, Instagram, Facebook, WhatsApp y sus gafas. La apuesta no es menor: después de años de asociar parte de su identidad reciente a modelos abiertos como Llama, Meta arrancó esta nueva etapa con un modelo cerrado y orientado de lleno a su propio ecosistema.
Anthropic mostró el reverso de ese entusiasmo. Su modelo Claude Mythos Preview no fue presentado como producto masivo, sino como un sistema con capacidades de seguridad ofensiva tan avanzadas que la empresa decidió mantenerlo fuera del alcance del público general. En su evaluación, Anthropic asegura que el modelo pudo encontrar y explotar vulnerabilidades de día cero en los principales sistemas operativos y navegadores, y documentó casos en los que desarrolló exploits de forma autónoma. En vez de abrirlo, la firma lo canalizó a Project Glasswing, un programa con socios seleccionados para reforzar defensas antes de que capacidades similares se vuelvan comunes.
Visto en conjunto, los tres casos sugieren que la superinteligencia funciona hoy menos como una categoría científica cerrada que como una frontera disputada entre promesa, poder y control. Las empresas ya no solo compiten por lanzar modelos más capaces; también compiten por definir qué significa esa capacidad, quién puede usarla, bajo qué reglas y con qué relato político será aceptada por el público.
El término “superinteligencia” sí tiene un núcleo conceptual reconocible, pero no una definición técnica única y estabilizada en la industria. La formulación clásica más citada viene de Nick Bostrom: una inteligencia “mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos”, incluyendo creatividad científica, sabiduría general y habilidades sociales. Esa definición es amplia y deliberadamente abstracta: describe una condición de superioridad general, no un umbral de laboratorio fácil de medir.
«Por «superinteligencia» entendemos un intelecto mucho más brillante que los mejores cerebros humanos en prácticamente todos los ámbitos, incluyendo la creatividad científica, la sabiduría general y las habilidades sociales. Esta definición deja abierta la forma en que se implementa la superinteligencia: podría ser una computadora digital , un conjunto de computadoras en red, tejido cortical cultivado o cualquier otra cosa. También deja abierta la cuestión de si la superinteligencia es consciente y tiene experiencias subjetivas», explica Bostrom.
Por eso hoy el término funciona en varios niveles a la vez. En filosofía y teoría de riesgos, “superinteligencia” nombra una inteligencia que excedería ampliamente a la humana en casi todos los dominios relevantes. En el discurso empresarial, en cambio, la palabra ya se usa como narrativa estratégica para describir una transición, una promesa o una dirección de producto, aunque todavía no exista un estándar único para demostrar que un sistema ya llegó ahí. OpenAI, por ejemplo, habla de sistemas capaces de superar a los humanos más inteligentes incluso cuando esos humanos están asistidos por IA; Meta, en cambio, habla de “superinteligencia personal”, una versión más pegada al asistente individual integrado a su ecosistema.
También conviene distinguirla de AGI. En la conversación pública, AGI suele referirse a una inteligencia general de nivel humano o cercana a él, mientras que la superinteligencia sería un salto posterior: no solo versatilidad general, sino desempeño superior al humano en prácticamente todo. De hecho, un paper reciente sobre “Levels of AGI” propone formas de operacionalizar el progreso hacia AGI, lo que deja ver otra cosa importante: la parte más trabajada en términos de niveles y benchmarks sigue siendo AGI, no “superinteligencia” como categoría cerrada y consensuada.
En otras palabras, la superinteligencia todavía no es una categoría técnica cerrada como para decir “este sistema ya cruzó una línea universalmente aceptada”. Es más bien una frontera disputada entre teoría, expectativas de mercado, seguridad y poder corporativo. Por eso una empresa la usa para justificar propuestas de rediseño social, otra para lanzar una nueva generación de asistentes, y otra prefiere hablar menos del término y más del riesgo de capacidades peligrosas.
En términos generales, la evolución de la IA suele explicarse en tres etapas: la IA estrecha, diseñada para tareas específicas; la AGI, capaz de desempeñarse de forma amplia en múltiples dominios como un humano; y la superinteligencia, que superaría ampliamente a la humana en casi todos los campos. Sin embargo, esa división funciona más como un esquema conceptual que como una escala técnica plenamente cerrada. Mientras la IA estrecha ya forma parte de la vida cotidiana, la AGI y la superinteligencia siguen siendo horizontes discutidos, definidos de forma distinta por investigadores, filósofos y empresas tecnológicas.
