La empresa desarrolladora de Claude presentó hoy dos demandas federales simultáneas argumentando que el gobierno retalió en su contra por negarse a permitir el uso de su IA en guerra autónoma letal y vigilancia masiva de ciudadanos estadounidenses.
Anthropic PBC, la empresa de inteligencia artificial desarrolladora del modelo Claude, presentó este lunes dos demandas judiciales contra la administración Trump, escalando aún más un enfrentamiento sin precedentes entre una empresa tecnológica privada y el gobierno federal de Estados Unidos sobre los límites éticos del uso militar de la IA.
Las demandas, presentadas simultáneamente en el Tribunal de Distrito Federal del Distrito Norte de California y en el Tribunal de Apelaciones del Circuito de D.C., acusan al gobierno de violar la Primera Enmienda constitucional, de actuar fuera de los límites de su autoridad legal y de saltarse los procedimientos establecidos por el Congreso para la cancelación de contratos gubernamentales.
«Anthropic recurre al poder judicial como último recurso para reivindicar sus derechos y detener la campaña ilegal de represalias del Ejecutivo», escribieron los abogados de la empresa en el expediente de California, presentado por el despacho WilmerHale.
El origen del conflicto
El enfrentamiento tiene su origen en una negociación que se fue agravando a lo largo de los últimos meses de 2025. El Departamento de Guerra (denominación que la administración Trump ha restituido al antes conocido como Departamento de Defensa) solicitó a Anthropic que eliminara las restricciones de uso de su política de usuario y permitiera al ejército hacer «todos los usos legales» de Claude.
Anthropic accedió en gran medida a la solicitud, con dos excepciones que consideró irrenunciables: el uso de Claude para guerra autónoma letal sin supervisión humana y la vigilancia masiva de ciudadanos estadounidenses. Según la empresa, estos dos usos van más allá de lo que la tecnología puede hacer de manera segura y confiable en su estado actual, y son incompatibles con su propósito fundacional como corporación de beneficio público.
La relación entre ambas partes había sido hasta entonces estrecha y productiva. Según la demanda, Claude es actualmente el modelo de IA de frontera más ampliamente desplegado en el Departamento de Guerra y el único presente en sus sistemas clasificados. La empresa había desarrollado modelos especializados denominados «Claude Gov», con capacidades adaptadas a operaciones de inteligencia y defensa nacional.
El ultimátum y la represalia
El 24 de febrero de 2026, el Secretario de Guerra Pete Hegseth se reunió con Dario Amodei, CEO de Anthropic, y le presentó un ultimátum: ceder a las demandas del Departamento antes de las 5:01 p.m. del viernes 27 de febrero, o enfrentar consecuencias. Las opciones amenazadas eran contradictorias: invocar la Ley de Producción para la Defensa y obligar a Anthropic a proporcionar el servicio en los términos exigidos, o designarla como «riesgo en la cadena de suministro para la seguridad nacional» y expulsarla del ecosistema de contratación federal.
El 26 de febrero, Amodei publicó una declaración pública explicando que Anthropic «no puede en buena conciencia» acceder a los requisitos del Departamento, subrayando que los dos usos prohibidos están «simplemente fuera de los límites de lo que la tecnología actual puede hacer de manera segura y confiable.»
La respuesta del gobierno fue inmediata y, según la demanda, llegó incluso antes del plazo fijado. El 27 de febrero, el presidente Trump publicó en su plataforma Truth Social una directiva ordenando a «TODAS las agencias federales del gobierno de Estados Unidos CESAR INMEDIATAMENTE todo uso de la tecnología de Anthropic.» En el mismo mensaje, calificó a la empresa de «compañía radical de izquierda woke» y amenazó con usar «el pleno poder de la presidencia» para forzar el cumplimiento, con «consecuencias civiles y penales.»
Horas después, Hegseth publicó en X su propia «decisión final», designando formalmente a Anthropic como riesgo en la cadena de suministro e instruyendo a todos los contratistas, proveedores y socios del ejército estadounidense a cesar toda actividad comercial con la empresa. Esa misma tarde, la Administración de Servicios Generales (GSA) eliminó a Anthropic de sus contratos de adquisición múltiple, cortando el acceso de la empresa a los tres poderes del gobierno federal.
En los días siguientes, el Departamento del Tesoro y la Agencia Federal de Financiamiento de Vivienda anunciaron públicamente que terminaban su uso de Claude. Los departamentos de Estado y de Salud y Servicios Humanos circularon memorandos internos en el mismo sentido.
Los argumentos legales
Anthropic articuló cinco líneas de ataque legal en su demanda ante el tribunal de California.
Primera Enmienda. Este es el núcleo del caso. La empresa argumenta que el gobierno retalió en su contra por expresar públicamente sus puntos de vista sobre las limitaciones de su propia tecnología, una actividad constitucionalmente protegida. La demanda señala que la secuencia de eventos es reveladora: las acciones punitivas llegaron directamente después de que Anthropic se negara a cambiar su posición y la explicara públicamente. Cita declaraciones del propio presidente —»despedí a Anthropic como a perros, porque no debieron haber hecho eso»— como evidencia de que la motivación fue ideológica, no de seguridad.
Exceso de autoridad estatutaria. La ley de «riesgo en la cadena de suministro» (10 U.S.C. § 3252) fue diseñada para proteger al gobierno del riesgo de sabotaje o subversión por parte de adversarios extranjeros como China, Rusia, Irán o Corea del Norte. Anthropic argumenta que el gobierno no ha determinado —ni puede razonablemente determinar— que la empresa represente ese tipo de riesgo. La empresa es una corporación estadounidense, con sede en Estados Unidos, que cuenta con autorización FedRAMP, habilitaciones de seguridad activas para su personal y un historial documentado de colaboración con el gobierno en materia de seguridad nacional.
Ultra vires presidencial. La directiva de Trump ordenando a todas las agencias cesar el uso de Claude carece de respaldo en ninguna ley del Congreso ni en la Constitución. El marco legal federal de adquisiciones tiene procedimientos específicos para terminar contratos y excluir proveedores —ninguno de ellos autoriza una cancelación masiva e inmediata vía redes sociales.
Violación del debido proceso (Quinta Enmienda). El gobierno impuso sanciones graves sobre la reputación y los contratos de Anthropic sin ningún proceso previo, sin notificación de hallazgos de hecho y sin oportunidad de respuesta.
Ley de Procedimiento Administrativo (APA). Las acciones de múltiples agencias son arbitrarias, caprichosas y carecen de la base legal que la APA exige para imponer sanciones.
La segunda demanda, presentada ante el Circuito de D.C., impugna específicamente la designación bajo el estatuto 41 U.S.C. § 4713, cuya revisión judicial corresponde exclusivamente a ese tribunal por mandato legal.
Las contradicciones que señala la demanda
Uno de los argumentos más potentes del caso es la serie de contradicciones en que incurrió el propio gobierno. La demanda las documenta con detalle:
El Secretario Hegseth describió las capacidades de Claude como «exquisitas» en la reunión del 24 de febrero y expresó que el Departamento «adoraría» trabajar con Anthropic —el mismo día que le lanzó un ultimátum. Funcionarios del Pentágono reconocieron ante la prensa que Claude era tan vital para la defensa nacional que consideraron invocar la Ley de Producción para la Defensa para obligar a la empresa a proveer el servicio. Al mismo tiempo, lo declararon un riesgo de seguridad nacional. Y la designación como «riesgo en la cadena de suministro» convive con una instrucción de continuar usando Claude durante seis meses más para una «transición ordenada.»
Más llamativo aún: según informes del Wall Street Journal citados en la demanda, el ejército utilizó herramientas de Anthropic en ataques aéreos en Irán horas después de que Trump anunciara el ban.
Funcionarios internos del Pentágono también hablaron con la prensa. Según Defense One, un oficial a cargo de seguridad informática describió la orden de Hegseth como «ideológica» y no como una descripción precisa de un riesgo real. Otro funcionario especializado en amenazas a la cadena de suministro fue más directo: «no hay evidencia de riesgo en la cadena de suministro» por parte de Anthropic.
Reacciones
Consultado por Politico, la portavoz de la Casa Blanca Liz Huston respondió con un comunicado que reitera la posición del gobierno sin abordar los argumentos legales: «El presidente Trump nunca permitirá que una empresa radical de izquierda woke ponga en riesgo nuestra seguridad nacional dictando cómo opera el ejército más grande y poderoso del mundo.» El Pentágono dijo que no comenta sobre litigios en curso.
Un caso con consecuencias amplias
El caso llega en un momento en que varias empresas y firmas de abogados han enfrentado acciones similares por parte de la administración Trump, generando una creciente jurisprudencia sobre los límites del poder ejecutivo frente a actores privados. La demanda de Anthropic cita explícitamente el caso Perkins Coie LLP v. U.S. Dep’t of Justice (2025), en el que un tribunal federal declaró inconstitucional una orden ejecutiva contra ese despacho jurídico por ser represalia a discurso protegido.
Para el sector de IA, las implicaciones son particularmente significativas. Si los tribunales dan la razón a Anthropic, se establecería un precedente que protegería a las empresas tecnológicas que mantengan políticas de uso responsable frente a presiones gubernamentales para abandonarlas. Si el gobierno prevalece, el efecto disuasivo sobre cualquier empresa con contratos federales podría ser considerable.
Los tribunales deberán resolver si el gobierno puede usar su poder de contratación como herramienta de coerción ideológica, o si la Primera Enmienda pone un límite a esa práctica incluso cuando el actor privado es un proveedor del Estado.
Con información de Politico.
