Mythos enciende alertas en Wall Street: Tesoro y Fed discuten con bancos el riesgo cibernético de la nueva IA de Anthropic

Mythos enciende alertas en Wall Street: Tesoro y Fed discuten con bancos el riesgo cibernético de la nueva IA de Anthropic

La preocupación por la inteligencia artificial avanzó un peldaño más en Washington. El secretario del Tesoro de Estados Unidos, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, sostuvieron una reunión con directivos de grandes bancos para advertirles sobre los posibles riesgos de ciberseguridad asociados con Mythos, el nuevo modelo de Anthropic orientado a tareas avanzadas de software y seguridad. Reuters reportó que el encuentro fue convocado con carácter urgente y que buscó alertar al sector financiero sobre amenazas que podrían afectar sistemas críticos.

De acuerdo con Reuters y Bloomberg, en la reunión participaron directivos de algunas de las principales entidades financieras de Wall Street, entre ellas Citigroup, Morgan Stanley, Bank of America, Wells Fargo y Goldman Sachs. El foco estuvo en las capacidades de Mythos para identificar vulnerabilidades de software y, en ciertos contextos, ayudar a construir explotaciones sofisticadas, un perfil que lo aleja del uso típico de los modelos de consumo y lo acerca al terreno sensible de la ciberseguridad y la infraestructura crítica.

Anthropic presentó Mythos como una vista previa de investigación dentro de Project Glasswing, una iniciativa enfocada en asegurar software crítico en la era de la IA. En su propia documentación, la empresa afirma que Mythos Preview ya ha encontrado miles de vulnerabilidades de alta severidad, incluidas algunas en sistemas operativos y navegadores ampliamente utilizados. También señala que el acceso al modelo está restringido y es únicamente por invitación, como parte de un esquema de despliegue controlado para fines defensivos.

Ese detalle es central para entender la reacción oficial. La alarma no proviene solo del hecho de que el modelo sea potente, sino de que sus capacidades pueden tener un uso dual: servir para fortalecer la defensa de sistemas complejos, pero también abaratar y acelerar la detección de fallos explotables. Reuters señaló que funcionarios estadounidenses han mantenido conversaciones previas con empresas tecnológicas sobre seguridad de IA antes y después del anuncio de Mythos, lo que sugiere que el gobierno estadounidense ya trata estas herramientas como un asunto de seguridad económica e infraestructura, y no solo como una innovación tecnológica más.

La lectura de fondo es más amplia. El episodio muestra un cambio en la forma en que reguladores y bancos empiezan a encuadrar el riesgo de la IA avanzada. Durante los últimos años, el debate público se concentró en productividad, automatización o desinformación. Ahora, el énfasis empieza a moverse hacia la posibilidad de que modelos con capacidades técnicas especializadas se conviertan en un factor de fragilidad sistémica para sectores como el financiero. El propio despliegue restringido de Mythos bajo Project Glasswing apunta en esa dirección: Anthropic lo presenta como una herramienta de defensa, pero su existencia también funciona como advertencia sobre una nueva generación de riesgos cibernéticos potenciados por IA.

En Reino Unido, además, reguladores financieros ya comenzaron a evaluar riesgos similares. Reuters informó este 12 de abril que autoridades británicas trabajan junto con organismos de ciberseguridad para valorar las implicaciones de Mythos en sistemas críticos, con la expectativa de informar a bancos, aseguradoras y operadores de mercado en las próximas semanas. La reacción en ambos lados del Atlántico sugiere que la discusión sobre IA y estabilidad ya dejó de ser hipotética.

Más que un episodio aislado, el caso Mythos parece anticipar una nueva etapa en la gobernanza de la inteligencia artificial: una en la que el problema no será solo cuánto razona un modelo, sino qué tan capaz es de intervenir sobre sistemas cuya caída puede tener efectos económicos en cascada.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *