El gobierno de Estados Unidos y Anthropic, un desarrollador líder de modelos de inteligencia artificial, están atrapados en una disputa que tiene implicaciones inmediatas para las empresas que dependen de la inteligencia artificial. El 27 de febrero de 2026, el presidente Trump ordenó a las agencias federales que suspendieran el uso de los modelos Claude de Anthropic después de que la compañía negara el acceso sin restricciones para aplicaciones militares. El Pentágono designó a Anthropic como un “riesgo de la cadena de suministro para la seguridad nacional”, rescindiendo efectivamente un contrato de 200 millones de dólares y exigiendo la eliminación de Claude de los sistemas gubernamentales en un plazo de seis meses.
Este movimiento no se trata de rendimiento; Claude, de Anthropic, se ha convertido en un generador de ingresos de más de 2.500 millones de dólares; recientemente recaudó 30.000 millones de dólares con una valoración de 380.000 millones de dólares, y se utiliza ampliamente en todas las industrias, desde Salesforce hasta Spotify, para obtener importantes ganancias de productividad. La disputa se centra en la negativa de Anthropic a permitir que sus modelos se utilicen para vigilancia masiva o sistemas de armas autónomos, una postura que el Pentágono considera inaceptable.
El conflicto central: Anthropic ha establecido “líneas rojas” con respecto a cómo se puede utilizar su tecnología, priorizando consideraciones éticas sobre el acceso militar sin restricciones. El Pentágono insiste en “todo uso legal”, es decir, sin limitaciones en las aplicaciones, independientemente de las implicaciones morales.
OpenAI y xAI ya han tomado medidas para llenar el vacío, aceptando los términos del Pentágono, aunque con distintos niveles de efectividad. OpenAI acaba de obtener 110 mil millones de dólares en nuevas inversiones de Amazon, Nvidia y SoftBank. xAI de Elon Musk también aceptó los términos del Pentágono, pero, según se informa, está obteniendo malos resultados en las pruebas gubernamentales.
Qué significa esto para las empresas: La conclusión clave no es política, sino práctica. La dependencia de un único proveedor de IA crea una vulnerabilidad crítica. Si sus flujos de trabajo de IA están bloqueados en una API, ya sea Claude, GPT-4o o Gemini, corre el riesgo de sufrir interrupciones si ese proveedor queda inutilizable debido a una acción regulatoria, presión geopolítica o cualquier otro evento imprevisto.
La solución: interoperabilidad. La estrategia más eficaz es crear sistemas de inteligencia artificial que puedan cambiar sin problemas entre modelos. Esto requiere el uso de capas de orquestación y formatos de solicitud estandarizados, lo que le permitirá cambiar de proveedor en un plazo de 24 horas si es necesario.
Diversificación más allá de los proveedores estadounidenses: El mercado está cambiando rápidamente. Mientras los gigantes estadounidenses compiten por contratos gubernamentales, surgen otras opciones. Empresas como Airbnb ya están experimentando con modelos chinos de menor costo como Qwen de Alibaba para el servicio al cliente, citando costo y flexibilidad.
Para lograr resiliencia a largo plazo, considere alojar internamente modelos de código abierto, como GPT-OSS de OpenAI, Granite de IBM, Llama de Meta u Olmo de AI2. Las herramientas de evaluación comparativa como Artificial Analysis y Pinchbench pueden ayudarlo a identificar los mejores modelos para sus necesidades específicas.
Nueva debida diligencia: Si hace negocios con agencias federales, ahora debe certificar que sus productos no dependen de proveedores de IA prohibidos. La era de la IA prometía democratización, pero rápidamente se está convirtiendo en un nuevo campo de batalla para las adquisiciones y el poder ejecutivo.
La medida más prudente es diversificar, desacoplar y prepararse para cambiar de proveedor rápidamente. La interoperabilidad de modelos ya no es un lujo; es una necesidad.
