Trump enfrenta a los tribunales por bloquear contratos de defensa a Anthropic
El Departamento de Justicia de Estados Unidos ha respondido en una presentación judicial que no se puede confiar en Anthropic para el desarrollo o uso de tecnologías en sistemas de combate, argumentando que la empresa representa un riesgo para la cadena de suministro de defensa. La postura forma parte de la defensa del gobierno ante una demanda interpuesta por Anthropic, que impugna su exclusión de contratos militares tras ser etiquetada como un proveedor de alto riesgo.

Según documentos presentados ante un tribunal federal en San Francisco, el gobierno justifica la medida por preocupaciones sobre posibles acciones futuras de la compañía, incluyendo la posibilidad de que su personal interfiera con sistemas de inteligencia artificial durante operaciones críticas. Los abogados del Departamento de Justicia afirmaron que Anthropic intentó imponer condiciones contractuales unilaterales al gobierno, algo que no está respaldado por la Primera Enmienda, y descartaron los argumentos de la empresa como insuficientes para demostrar un daño irreparable.
Una disputa sobre control y seguridad nacional
El conflicto surgió tras la decisión del Pentágono de etiquetar a Anthropic como un riesgo para la seguridad nacional, lo que podría excluir a la empresa de futuros contratos de defensa y costarle miles de millones de dólares en ingresos. El Departamento de Defensa (DOD) expresó preocupación de que, al mantener acceso a sistemas clasificados, el personal de Anthropic pudiera sabotear tecnologías críticas, introducir funciones no deseadas o alterar el comportamiento de sus modelos de IA —como Claude— si considera que se están violando sus principios éticos o límites corporativos.
En su argumentación, el gobierno señaló que no se está restringiendo la libertad de expresión de Anthropic, sino que se actúa en defensa de la integridad de los sistemas militares. “Permitir que Anthropic mantenga acceso continuo a la infraestructura técnica y operativa de combate representaría un riesgo inaceptable”, sostuvo el documento judicial.
El rol militar de Claude y la transición a otros proveedores

- Claude, el modelo de inteligencia artificial de Anthropic, ha sido utilizado por el Pentágono en sistemas clasificados, especialmente en integraciones con herramientas de análisis de datos como Palantir.
- Actualmente, Anthropic es el único proveedor autorizado para el uso de modelos de IA en ciertos sistemas sensibles, lo que complica su reemplazo inmediato.
- El DOD ya está trabajando en la sustitución de las herramientas de Anthropic por alternativas de Google, OpenAI y xAI, aunque el proceso tomará varios meses.
La jueza Rita Lin, encargada del caso en San Francisco, tiene previsto celebrar una audiencia la próxima semana para decidir si concede una medida cautelar que permita a Anthropic reanudar sus actividades con el Departamento de Defensa mientras se resuelve el litigio. Hasta ahora, ningún grupo o entidad ha presentado apoyos formales al gobierno, mientras que varios, entre ellos investigadores de IA, Microsoft, sindicatos de empleados federales y exlíderes militares, han respaldado a la empresa.
Anthropic tiene hasta el viernes para presentar su réplica formal a los argumentos del gobierno. La disputa marca un momento clave en la relación entre el sector privado de la inteligencia artificial y las instituciones de defensa, poniendo en evidencia las tensiones entre innovación tecnológica, autonomía corporativa y seguridad nacional.
Mira tambien:
Milei y el pacto secreto de 5 millones por promover la estafa $Libra
La increíble transformación digital que sorprendió a Colombia
¿Es Psique una semilla planetaria o un tesoro de oro?
Colombia al borde del colapso laboral 61% de empresas sin talento para 2026
Deja una respuesta