Google entra al circuito clasificado del Pentágono: Gemini se suma a la infraestructura militar de IA

Google entra al circuito clasificado del Pentágono: Gemini se suma a la infraestructura militar de IA

El acuerdo permitiría usar modelos de Google en redes clasificadas para aplicaciones sensibles de defensa. La noticia se suma a contratos con otros laboratorios de IA, al papel creciente de Palantir y Maven, y al anuncio de un futuro comando de guerra autónoma en Estados Unidos.

La inteligencia artificial comercial ya no está entrando al aparato militar por los bordes. Está entrando por el centro. Google firmó un acuerdo clasificado con el Departamento de Defensa de Estados Unidos para que sus modelos de inteligencia artificial puedan utilizarse en trabajos sensibles de seguridad nacional, de acuerdo con reportes retomados por Reuters a partir de información publicada originalmente por The Information. El acuerdo permitiría al Pentágono usar la IA de Google en redes clasificadas para “cualquier propósito gubernamental legítimo”, una fórmula amplia que puede incluir planeación de misiones y apoyo a tareas vinculadas con selección de objetivos.

El dato no aparece aislado. Forma parte de una secuencia más amplia: contratos con grandes laboratorios de IA, presión del Pentágono para operar modelos en redes secretas, resistencia interna dentro de empresas tecnológicas, expansión de plataformas militares como Maven y el anuncio de un próximo subcomando dedicado a la guerra autónoma. La señal de fondo es clara: la IA deja de ser solo una herramienta comercial o experimental y empieza a consolidarse como infraestructura estratégica de defensa.

Gemini en redes clasificadas

Según Reuters, el acuerdo coloca a Google junto a OpenAI y xAI, que también han firmado convenios para suministrar modelos de IA al gobierno estadounidense en entornos clasificados. El Pentágono ya había firmado acuerdos de hasta 200 millones de dólares con grandes laboratorios de IA, incluyendo Anthropic, OpenAI y Google.

Las redes clasificadas se utilizan para manejar información sensible, incluyendo planeación de misiones y tareas de selección de objetivos. En ese contexto, integrar modelos comerciales de IA significa llevar sistemas entrenados para uso general, como Gemini,  a entornos donde las decisiones pueden tener consecuencias militares directas.

El contrato incluye límites formales. De acuerdo con Reuters, el texto señala que el sistema de IA no está diseñado para vigilancia masiva doméstica ni para armas autónomas, incluida la selección de objetivos, sin supervisión y control humano apropiados. Google también dijo a Reuters que mantiene su postura contra el uso de IA para vigilancia doméstica masiva o armamento autónomo sin supervisión.

Pero el punto delicado está en la otra parte del acuerdo: el contrato no otorga a Google el derecho a controlar o vetar decisiones operativas legales del gobierno estadounidense. También requiere que la compañía ayude a ajustar configuraciones de seguridad y filtros de sus modelos cuando el gobierno lo solicite. Ahí está la tensión central. Google puede establecer principios, pero una vez que sus modelos entran en redes clasificadas, el control operativo pasa al Estado.

En 2018, la empresa enfrentó una rebelión interna por su participación en Project Maven, una iniciativa del Departamento de Defensa para aplicar IA al análisis de imágenes de drones. Tras la presión de empleados, Google decidió no renovar ese contrato. Aquel episodio se convirtió en uno de los símbolos más importantes de resistencia laboral contra el uso militar de la IA en Silicon Valley.

Más de 600 empleados de Google, incluidos trabajadores vinculados a DeepMind, firmaron una carta dirigida a Sundar Pichai para pedir que la empresa no permita el uso de su IA en trabajos militares clasificados. Su preocupación principal es que, una vez dentro de entornos secretos, la compañía pierde capacidad real de supervisar cómo se utilizan sus modelos.

El argumento de los empleados no es menor. El problema no es solo si Google declara límites éticos, sino si esos límites pueden verificarse en una infraestructura militar clasificada. En un entorno secreto, las promesas de supervisión chocan con una realidad práctica: ni los trabajadores, ni la opinión pública, ni muchas veces los propios mecanismos civiles pueden observar con claridad qué está haciendo el sistema.

Palantir, Maven y la capa operacional

Para entender la importancia del acuerdo con Google, hay que mirar más allá de Google. El Pentágono no está incorporando IA como si se tratara de una sola herramienta. Está construyendo una arquitectura.  Palantir ha sido uno de los contratistas clave del Departamento de Defensa en la integración de software, datos e inteligencia artificial para operaciones militares. WIRED reportó que la empresa es el contratista principal detrás de Project Maven desde 2017, una iniciativa orientada a desplegar IA en escenarios de guerra. Maven permite aplicar algoritmos de visión por computadora a imágenes captadas por activos espaciales o plataformas de vigilancia, detectar objetos y apoyar flujos de inteligencia militar.

La misma investigación de WIRED mostró cómo los sistemas de Palantir pueden integrar asistentes basados en grandes modelos de lenguaje dentro de plataformas militares. En demostraciones revisadas por el medio, un asistente de IA podía ayudar a interpretar actividad enemiga, generar cursos de acción, solicitar vigilancia con drones, analizar el campo de batalla, proponer rutas y asignar capacidades de interferencia electrónica.

Ese es el punto que vuelve relevante el mensaje reciente de Palantir en X. La empresa no aparece únicamente como proveedor de software administrativo o analítico, sino como una pieza de la infraestructura donde los modelos de IA pueden conectarse con datos, mapas, sensores, decisiones operativas y cadenas de mando. Google aporta modelos. OpenAI y xAI también. Anthropic ha disputado límites. Palantir y Maven aportan la capa donde esos modelos pueden volverse operacionales.

No es solo un contrato: es una arquitectura militar de IA

La noticia sobre Google coincide con otro movimiento importante: el Departamento de Defensa prepara un subcomando unificado dedicado a la guerra autónoma. Pete Hegseth dijo ante el Comité de Servicios Armados de la Cámara de Representantes que Estados Unidos anunciará pronto un subcomando para guerra autónoma. Hegseth vinculó esa prioridad con drones, enjambres prescindibles, sistemas sofisticados y capacidades para derrotar plataformas autónomas adversarias.

Una semana antes, el Comando Sur de Estados Unidos anunció la creación del Southcom Autonomous Warfare Command, una estructura que trabajará con el Defense Autonomous Warfare Group y los servicios militares para identificar capacidades, expertos y plataformas necesarias para integrar sistemas autónomos a la misión regional.

La coincidencia temporal importa. En pocos días, aparecen varios movimientos en la misma dirección: Google en redes clasificadas, presión sobre laboratorios para flexibilizar restricciones, Palantir como capa operacional, Maven como sistema de integración de IA militar y un futuro mando dedicado a la guerra autónoma.

La IA comercial se vuelve infraestructura estratégica

El nuevo escenario es más complejo. Los modelos comerciales de IA pueden operar como una capa general de razonamiento, análisis y automatización dentro de sistemas militares ya existentes. No necesitan ser “armas autónomas” en sentido estricto para influir en decisiones de guerra. Pueden participar en planeación, inteligencia, análisis de imágenes, generación de cursos de acción, priorización de objetivos, logística, ciberdefensa o coordinación de sistemas no tripulados.

Un modelo puede no disparar un arma y, aun así, formar parte de una cadena de decisiones que termina en una operación militar. Puede no seleccionar un objetivo de manera autónoma y, aun así, ordenar información, recomendar acciones o acelerar decisiones humanas en contextos donde el tiempo, la presión y la opacidad importan.

La autonomía como doctrina

El acuerdo con Google llega en la misma semana en que otras señales apuntan hacia una reorganización más profunda. Por un lado, los modelos de frontera muestran capacidades cada vez más fuertes en tareas cibernéticas complejas. Por otro, el Pentágono se prepara para formalizar la guerra autónoma como una misión institucional.

Google puede presentar el acuerdo como acceso responsable a modelos comerciales bajo prácticas estándar. El Pentágono puede insistir en que no busca vigilancia masiva doméstica ni armas sin control humano. Pero la dirección general es más difícil de negar: la IA comercial está siendo absorbida por la infraestructura de seguridad nacional.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *