Un tribunal de apelaciones de EE. UU. rechazó una solicitud del desarrollador de inteligencia artificial Anthropic para suspender una designación gubernamental que etiqueta a la empresa como riesgo para la cadena de suministro. Esta decisión mantiene una barrera importante para la capacidad de la empresa para realizar negocios con el Departamento de Defensa (DoD), lo que marca un momento crucial en la creciente tensión entre los desarrolladores privados de IA y los intereses militares federales.

El núcleo de la disputa

El conflicto surge de una decisión de la administración Trump de etiquetar a Anthropic como un riesgo para la seguridad en febrero. Esta designación prohíbe efectivamente a los contratistas del Pentágono utilizar los modelos de IA de Anthropic, como el asistente Claude, en cualquier contrato del Departamento de Defensa.

La fricción parece tener su origen en un desacuerdo fundamental sobre los límites éticos del despliegue de la IA. Según se informa, Anthropic se ha negado a conceder a los militares acceso ilimitado a sus modelos, resistiéndose específicamente a las solicitudes de utilizar la tecnología para:
Armas letales autónomas que funcionan sin supervisión humana.
Vigilancia masiva de ciudadanos americanos.

Un contrato de alto riesgo bajo amenaza

El momento de esta batalla legal es fundamental para las operaciones comerciales de Anthropic. En 2025, la empresa consiguió un contrato de 200 millones de dólares para integrar su tecnología en sistemas militares. Desde ese acuerdo, Claude se ha arraigado profundamente en la infraestructura del gobierno de Estados Unidos, incluyendo:
– Redes de información clasificada en todo el gobierno federal.
– Laboratorios nucleares nacionales.
– Flujos de trabajo de análisis de inteligencia directamente para el Departamento de Defensa.

La etiqueta de “riesgo de la cadena de suministro” amenaza con interrumpir estas operaciones y podría invalidar o complicar la ejecución de este contrato masivo.

El argumento del Gobierno: “Líneas rojas corporativas”

El Departamento de Defensa ha justificado sus acciones citando preocupaciones sobre la confiabilidad de la IA durante conflictos activos. En presentaciones legales, el Departamento de Defensa argumentó que Anthropic podría “alterar preventivamente el comportamiento” de sus modelos o desactivarlos por completo durante “operaciones de guerra” si la compañía siente que se están cruzando sus “líneas rojas” éticas internas.

Básicamente, el gobierno teme que el marco moral o ético de una empresa privada pueda interferir con las operaciones de seguridad nacional durante una crisis.

Tira y afloja legal

Actualmente, Anthropic está luchando contra esta designación en dos frentes, acusando a la administración de una “campaña ilegal de represalias” por su negativa a cumplir con las demandas militares.

El panorama legal actualmente está dividido:
1. San Francisco: Anthropic ganó recientemente una demanda separada en un tribunal de San Francisco, que obligó a la administración a eliminar una etiqueta similar.
2. Washington D.C.: El Tribunal de Apelaciones del Circuito de D.C. ha adoptado una postura diferente, negándose a revocar la designación actual porque “la cantidad exacta del daño financiero de Anthropic no está clara”.

“Estamos agradecidos de que el tribunal haya reconocido que estas cuestiones deben resolverse rápidamente y confiamos en que los tribunales finalmente aceptarán que estas designaciones de la cadena de suministro eran ilegales”, afirmó Anthropic tras el fallo.

¿Qué pasa después?

Si bien esto es un revés para Anthropic, la batalla legal está lejos de terminar. El tribunal de apelaciones ha programado más audiencias para mayo de 2025, donde se presentarán más pruebas sobre la legalidad de la designación y el alcance de los daños financieros de la empresa.


Conclusión: Este caso pone de relieve un floreciente campo de batalla legal y ético sobre si las empresas privadas de IA tienen derecho a imponer restricciones éticas sobre cómo el Estado utiliza su tecnología. Las próximas audiencias de mayo serán un momento decisivo para determinar el equilibrio entre la autonomía corporativa y los requisitos de seguridad nacional.