Rząd USA i Anthropic, wiodący twórca modeli AI, toczą spór, który ma natychmiastowe konsekwencje dla firm polegających na sztucznej inteligencji. 27 lutego 2026 roku prezydent Trump nakazał agencjom federalnym zaprzestanie używania modeli Claude firmy Anthropic po tym, jak firma odmówiła zapewnienia nieograniczonego dostępu dla wojska. Pentagon uznał firmę Anthropic za „ryzyko bezpieczeństwa narodowego w łańcuchu dostaw”, skutecznie rozwiązując kontrakt o wartości 200 milionów dolarów i żądając usunięcia Claude z systemów rządowych w ciągu sześciu miesięcy.
Ten krok nie jest związany z wydajnością; Claude firmy Anthropic wygenerował ponad 2,5 miliarda dolarów przychodów, ostatnio zebrał 30 miliardów dolarów przy wycenie na 380 miliardów dolarów i jest powszechnie stosowany w różnych branżach, od Salesforce po Spotify, w celu radykalnej poprawy produktywności. Spór koncentruje się na odmowie firmy Anthropic na wykorzystanie jej modeli do celów masowej inwigilacji lub autonomicznych systemów uzbrojenia, co Pentagon uważa za niedopuszczalne.
Charakter konfliktu: Firma Anthropic ustaliła czerwone granice dotyczące sposobu wykorzystania swojej technologii, przedkładając względy etyczne nad nieograniczony dostęp wojska. Pentagon nalega na „jakiekolwiek zgodne z prawem użycie”, co oznacza brak ograniczeń w użyciu, bez względu na implikacje moralne.
OpenAI i xAI wypełniły już zwolnioną przestrzeń, zgadzając się na warunki Pentagonu, choć z różnym stopniem skuteczności. OpenAI właśnie zabezpieczyło nowe inwestycje o wartości 110 miliardów dolarów od Amazon, Nvidia i SoftBank. XAI Elona Muska również zgodził się na żądania Pentagonu, ale podobno słabo wypada w testach rządowych.
Co to oznacza dla biznesu: Główny wniosek nie jest polityczny, ale praktyczny. Poleganie na jednym dostawcy sztucznej inteligencji stwarza krytyczną lukę w zabezpieczeniach. Jeśli Twoje przepływy pracy AI są zamknięte w jednym API – Claude, GPT-4o czy Gemini – ryzykujesz przestojami, jeśli ten dostawca stanie się bezużyteczny z powodu działań regulacyjnych, presji geopolitycznej lub innego nieprzewidzianego zdarzenia.
Rozwiązanie: interakcja. Najskuteczniejszą strategią jest tworzenie systemów AI, które mogą płynnie przełączać się między modelami. Wymaga to stosowania warstw orkiestrowych i standardowych formatów żądań, aby w razie potrzeby umożliwić zmianę dostawców w ciągu 24 godzin.
Dywersyfikacja poza dostawcami z USA: Rynek szybko się zmienia. W miarę jak amerykańscy giganci konkurują o kontrakty rządowe, pojawiają się inne opcje. Firmy takie jak Airbnb już eksperymentują z tańszymi chińskimi modelami, takimi jak Qwen Alibaba, aby obsługiwać klientów, powołując się na opłacalność i elastyczność.
Aby zapewnić długoterminową stabilność, rozważ wewnętrzne hostowanie modeli open source, takich jak GPT-OSS OpenAI, Granite IBM, Llama Meta lub Olmo AI2. Narzędzia testowe, takie jak Sztuczna Analiza i Pinchbench, mogą pomóc w określeniu najlepszych modeli dla Twoich konkretnych potrzeb.
Nowa zasada należytej staranności: jeśli współpracujesz z agencjami federalnymi, musisz teraz zaświadczyć, że Twoje produkty nie korzystają z zabronionych dostawców sztucznej inteligencji. Era sztucznej inteligencji obiecywała demokratyzację, ale szybko staje się nowym polem bitwy o zamówienia i władzę wykonawczą.
Najmądrzejszym posunięciem jest dywersyfikacja, zbycie i przygotowanie się na szybką zmianę dostawców. Interakcja modeli nie jest już luksusem; to konieczność.
