La compañía abandonó una competencia de 100 millones de dólares para desarrollar tecnología de control de enjambres autónomos mediante comandos de voz. La decisión ocurre mientras Google enfrenta presión interna por el uso de sus modelos de IA en proyectos militares clasificados.
Google se retiró de una competencia del Pentágono valuada en 100 millones de dólares para desarrollar tecnología de control de enjambres de drones autónomos mediante comandos de voz, de acuerdo con un reporte de Bloomberg.
El 11 de febrero, la compañía habría informado al gobierno estadounidense desde el 11 de febrero que no interrumpiría su participación en la iniciativa. Esto, semanas después de haber presentado una propuesta que ya había sido aceptada. Aunque Google citó oficialmente falta de recursos como motivo de su salida, registros revisados por Bloomberg indican que la decisión siguió a una revisión ética interna.
El programa es liderado de manera conjunta por el Grupo de Guerra Autónoma de Defensa del Comando de Operaciones Especiales de Estados Unidos y la Unidad de Innovación de Defensa. Su objetivo es desarrollar sistemas capaces de convertir órdenes de voz, como “izquierda”, en instrucciones digitales para coordinar múltiples drones.
La retirada no implica una ruptura general entre Google y el Departamento de Defensa, pero sí muestra una frontera cada vez más sensible para las grandes empresas de inteligencia artificial: hasta dónde participar en proyectos militares que pueden vincularse con autonomía operativa, vigilancia, coordinación táctica o posibles escenarios de combate.
El caso ocurre en medio de una mayor presión interna en Google. Más de 600 trabajadores firmaron una carta dirigida al director ejecutivo Sundar Pichai para pedir que la empresa no pusiera sus sistemas de IA a disposición de cargas clasificadas del Pentágono, ante el temor de que pudieran utilizarse en aplicaciones dañinas o inhumanas.
La tensión se intensificó después de que se reportara que Google firmó un acuerdo clasificado con el Pentágono para permitir el uso de sus modelos de inteligencia artificial en trabajos seguros del gobierno. De acuerdo con The Information, citado por The Guardian, el contrato permitiría el uso de la IA de Google para “cualquier propósito gubernamental legal”, aunque incluiría restricciones contra vigilancia masiva doméstica y armas autónomas sin supervisión humana apropiada.
El antecedente más claro es Project Maven, el contrato del Pentágono para analizar imágenes de drones con tecnología de inteligencia artificial. En 2018, Google decidió no renovarlo tras protestas internas, renuncias de empleados y una petición firmada por miles de trabajadores que exigían no usar la tecnología de la empresa en sistemas de armas.
El nuevo caso revive ese conflicto, pero en un contexto más avanzado. Ya no se trata únicamente de analizar imágenes o proveer infraestructura, sino de una tecnología orientada a traducir instrucciones humanas en acciones coordinadas de sistemas autónomos. Esa diferencia vuelve más delicada la discusión ética alrededor de la IA militar.
Google tampoco es la única empresa tecnológica vinculada a este tipo de iniciativas. Bloomberg reportó en febrero que SpaceX y xAI participan en una competencia secreta del Pentágono para desarrollar tecnología de enjambres de drones autónomos controlados por voz. El mismo reporte señaló que OpenAI, Google, Anthropic y xAI obtuvieron contratos de hasta 200 millones de dólares cada uno para ampliar el uso de capacidades avanzadas de IA dentro del Departamento de Defensa.
La decisión de Google muestra una posición ambigua: la empresa no se retira del ecosistema militar estadounidense, pero parece intentar diferenciar entre ofrecer modelos o infraestructura para usos gubernamentales clasificados y participar directamente en tecnologías asociadas con autonomía militar operativa.
El fondo del debate es más amplio que un solo contrato. A medida que los modelos de IA se integran en defensa, nube, análisis de datos, planificación y sistemas autónomos, las grandes tecnológicas enfrentan una pregunta que ya no pueden mantener en abstracto: qué usos militares de la inteligencia artificial consideran aceptables y cuáles cruzan una línea ética difícil de defender.
