Filtración accidental expone supuestos planes de Anthropic para un nuevo modelo de IA

Filtración accidental expone supuestos planes de Anthropic para un nuevo modelo de IA

Cerca de 3,000 archivos internos de la empresa quedaron accesibles públicamente por un error de configuración. Las acciones del sector de ciberseguridad cayeron tras conocerse el incidente.

Un error de configuración en el sistema de gestión de contenido de Anthropic habría dejado expuestos públicamente cerca de 3,000 archivos internos de la compañía, según reportó este viernes la revista Fortune. Entre los documentos filtrados aparecería información sobre un modelo de inteligencia artificial en desarrollo con el nombre clave «Claude Mythos».

De acuerdo con los archivos a los que tuvo acceso Fortune, el modelo formaría parte de un nuevo nivel de capacidades llamado «Capybara», que superaría en desempeño al actual modelo más avanzado de la empresa —Claude Opus— en áreas como codificación de software, razonamiento académico y ciberseguridad. El borrador filtrado lo describiría como el modelo «más poderoso» desarrollado hasta ahora por Anthropic.

Uno de los detalles más llamativos es que el propio documento advertiría que el modelo «plantea riesgos de ciberseguridad sin precedentes», una afirmación que contrasta con la forma en que trascendió: precisamente a través de un fallo de seguridad de la propia compañía.

Anthropic reconoció el incidente y lo atribuyó a un error humano, sin ofrecer más detalles sobre el contenido de los archivos. Tras ser contactada por Fortune, la empresa restringió el acceso al repositorio.

La noticia sacudió los mercados: acciones de empresas de ciberseguridad como CrowdStrike, Palo Alto Networks y Zscaler registraron caídas de entre 4.5% y 7% durante la jornada del viernes.

Con información de Fortune e Investing