Trabajadores del laboratorio de inteligencia artificial de Google votaron para sindicalizarse en Reino Unido tras un acuerdo de la empresa con el Pentágono. Acusan que la tecnología que desarrollan podría terminar aplicada en guerra, vigilancia o violaciones a derechos humanos.
Trabajadores de Google DeepMind en Reino Unido votaron para sindicalizarse en medio de crecientes preocupaciones por el uso militar de la tecnología de inteligencia artificial desarrollada por Google. La decisión ocurre después de que la empresa confirmara un acuerdo con el Departamento de Defensa de Estados Unidos para permitir el uso de sus modelos de IA en sistemas clasificados del gobierno estadounidense.
De acuerdo con The Guardian, empleados del laboratorio en Londres solicitaron a la compañía reconocer formalmente a dos sindicatos, Communication Workers Union y Unite the Union, como representantes del personal británico de DeepMind. La votación fue impulsada por el temor de que los sistemas de IA de Google terminen involucrados en operaciones militares, vigilancia o conflictos armados.
El movimiento también responde a un cambio mayor dentro de Google. Alphabet eliminó en 2025 parte de sus antiguos compromisos públicos que prometían no desarrollar IA para armas o vigilancia. Para los trabajadores, esa modificación abrió la puerta a una nueva etapa: la de los laboratorios de IA de frontera integrándose directamente con la infraestructura militar de Estados Unidos.
Según reportes de The Verge y Business Insider, la campaña podría representar a más de mil empleados de DeepMind en Londres. Los trabajadores piden el derecho a negarse a participar en proyectos que consideren éticamente cuestionables, mayor transparencia sobre el uso de sus desarrollos y compromisos explícitos para que la IA de Google no contribuya a daños, vigilancia abusiva o violaciones de derechos humanos.
La tensión no surge de la nada. En los últimos años, empleados de Google han protestado contra contratos como Project Nimbus, un acuerdo de nube de 1,200 millones de dólares con el gobierno de Israel. En 2024, la empresa despidió a decenas de trabajadores tras protestas internas relacionadas con ese contrato.
La disputa revela una grieta profunda en la industria de IA: los modelos ya no son solo productos de consumo o herramientas empresariales, sino infraestructura estratégica. En ese escenario, los propios trabajadores que construyen sistemas de inteligencia artificial empiezan a reclamar poder de decisión sobre el destino político y militar de su trabajo.
Google ha defendido sus colaboraciones con agencias de seguridad nacional, aunque sostiene que sus herramientas no deben usarse para vigilancia masiva doméstica ni armas autónomas sin supervisión humana. Sin embargo, los empleados de DeepMind parecen desconfiar de que esas salvaguardas sean suficientes cuando la tecnología entra en redes clasificadas o estructuras militares.
La sindicalización de DeepMind podría convertirse en un precedente para otros laboratorios de IA. Si la carrera por los modelos de frontera se cruza cada vez más con defensa, ciberseguridad y guerra, la pregunta ya no será únicamente qué puede hacer la inteligencia artificial, sino quién tiene derecho a decidir para qué se usa.
