Luego de la controversia que surgió tras la negativa de Anthropic a permitir que su modelo fuera utilizado para vigilancia masiva de ciudadanos estadounidenses y para sistemas de armas completamente autónomos, el Departamento de Guerra alcanzó un acuerdo similar con OpenAI.
La decisión generó críticas y cuestionamientos sobre si la empresa había aceptado las condiciones que Anthropic rechazó.
Sin embargo, OpenAI aseguró este sábado que su convenio con el Pentágono incluye “más salvaguardas que cualquier despliegue previo en entornos clasificados” y que mantiene tres líneas rojas explícitas: prohibición de vigilancia doméstica masiva, prohibición de uso para dirigir armas autónomas y prohibición de decisiones automatizadas de alto impacto sin supervisión humana.
Según el comunicado, el despliegue será exclusivamente en la nube, con la “safety stack” activa y bajo supervisión de personal autorizado de la compañía. OpenAI sostuvo que no entregará modelos sin salvaguardas ni permitirá implementaciones en dispositivos de borde que pudieran habilitar armas autónomas letales.
El contrato, añadió la empresa, incorpora referencias explícitas a la Cuarta Enmienda, la Ley de Seguridad Nacional de 1947, la Ley de Vigilancia de Inteligencia Extranjera de 1978 y la Directiva 3000.09 del Departamento de Defensa sobre sistemas autónomos.
En un punto que marca distancia con la escalada previa, OpenAI afirmó que no considera que Anthropic deba ser designada como “riesgo en la cadena de suministro” y aseguró haber solicitado al gobierno que los mismos términos del acuerdo estén disponibles para todos los laboratorios de inteligencia artificial.
La compañía sostuvo que uno de sus objetivos fue “desescalar” la tensión entre el gobierno y las empresas de IA, y reiteró que podría rescindir el contrato si se incumplen las condiciones pactadas.
