La empresa amplió su programa Trusted Access for Cyber con nuevos niveles de verificación para investigadores, profesionales y equipos defensivos. El movimiento llega una semana después del anuncio de Mythos por Anthropic y en un contexto de creciente presión sobre el uso de IA en seguridad.
OpenAI anunció este martes la expansión de su programa Trusted Access for Cyber y el despliegue de GPT-5.4-Cyber, una versión de su familia GPT-5.4 ajustada específicamente para tareas de ciberseguridad defensiva. Según la compañía, el programa se abrirá ahora a miles de defensores individuales verificados y a cientos de equipos responsables de proteger software crítico, con distintos niveles de acceso según el grado de autenticación y confianza.
De acuerdo con OpenAI, los usuarios ubicados en los niveles más altos del programa podrán acceder a GPT-5.4-Cyber con menos restricciones de capacidad para trabajos como investigación de vulnerabilidades y análisis de amenazas. Reuters reportó que el modelo será puesto inicialmente en manos de un grupo seleccionado de profesionales, organizaciones e investigadores verificados, en un esquema más cerrado que el de los lanzamientos convencionales de la empresa.
El movimiento ocurre apenas una semana después de que Anthropic presentara Mythos, su propio modelo orientado a ciberseguridad. Reuters enmarcó el anuncio de OpenAI dentro de esa nueva presión competitiva entre laboratorios que buscan posicionarse en el terreno de los modelos con capacidades avanzadas para defensa digital.
OpenAI había introducido Trusted Access for Cyber en febrero como un marco basado en identidad y confianza para ampliar el acceso a capacidades cyber de frontera sin abrir por completo la puerta a usos maliciosos. En ese momento también comprometió 10 millones de dólares en créditos API para acelerar trabajo defensivo. La actualización de este 14 de abril muestra que la empresa quiere escalar ese programa y convertirlo en una pieza más permanente de su estrategia de seguridad.
El anuncio llega, además, en un momento en que OpenAI viene subrayando públicamente que los riesgos ya no se reducen a prompts aislados. En su informe de febrero de 2026 sobre usos maliciosos de sus modelos, la empresa sostuvo que los actores hostiles suelen combinar IA con otras plataformas, cuentas, sitios web y herramientas tradicionales, y documentó campañas de fraude, operaciones de influencia y actividades coordinadas que mezclaban múltiples sistemas y modelos.
Ese contexto ayuda a explicar el tono más institucional del lanzamiento. Más que presentar GPT-5.4-Cyber como un producto abierto de uso general, OpenAI lo está encuadrando como una capacidad sensible que debe circular bajo verificación, monitoreo y acceso escalonado. La apuesta parece responder a un doble frente: por un lado, la competencia entre laboratorios por dominar el mercado de la ciberdefensa asistida por IA; por otro, la necesidad de evitar que modelos cada vez más capaces terminen ampliando la superficie de ataque que dicen ayudar a contener.
