Americká vláda a Anthropic, přední vývojář modelů AI, jsou uzavřeny ve sporu, který má okamžité důsledky pro společnosti, které spoléhají na umělou inteligenci. 27. února 2026 prezident Trump nařídil federálním agenturám, aby přestaly používat modely Anthropic’s Claude poté, co společnost odmítla poskytnout neomezený vojenský přístup. Pentagon označil Anthropic za „National Security Risk in the Supply Chain“, čímž fakticky ukončil kontrakt ve výši 200 milionů dolarů a požadoval, aby byl Claude do šesti měsíců odstraněn z vládních systémů.

Tento krok nesouvisí s výkonem; Claude společnosti Anthropic vygeneroval tržby 2,5+ miliardy dolarů, nedávno získal 30 miliard dolarů při ocenění 380 miliard dolarů a je široce používán v různých odvětvích od Salesforce po Spotify k dramatickému zvýšení produktivity. Spor se soustředí na to, že společnost Anthropic odmítla povolit použití jejích modelů pro hromadné sledování nebo autonomní zbraňové systémy, což Pentagon považuje za nepřijatelné.

Povaha konfliktu: Společnost Anthropic stanovila červené linie ohledně toho, jak lze její technologii používat, a upřednostňuje etické úvahy před neomezeným vojenským přístupem. Pentagon trvá na „jakémkoli zákonném použití“, což znamená žádná omezení použití, bez ohledu na morální důsledky.

OpenAI a xAI již zaplnily uvolněné místo a souhlasily s podmínkami Pentagonu, i když s různou mírou účinnosti. OpenAI právě zajistila nové investice ve výši 110 miliard dolarů od Amazonu, Nvidie a SoftBank. xAI Elona Muska také souhlasilo s požadavky Pentagonu, ale ve vládních testech si údajně vede špatně.

Co to znamená pro obchod: Hlavní závěr není politický, ale praktický. Spoléhání se na jediného dodavatele AI vytváří kritickou zranitelnost. Pokud jsou vaše pracovní postupy AI uzamčeny v jediném API – ať už Claude, GPT-4o nebo Gemini – riskujete výpadky, pokud se daný poskytovatel stane nepoužitelným kvůli regulačním opatřením, geopolitickému tlaku nebo jakékoli jiné nepředvídané události.

Řešení: Interakce. Nejúčinnější strategií je vytvořit systémy umělé inteligence, které dokážou plynule přepínat mezi modely. To vyžaduje použití orchestrálních vrstev a standardizovaných formátů požadavků, aby bylo možné v případě potřeby změnit poskytovatele do 24 hodin.

Diverzifikace mimo americké dodavatele: Trh se rychle mění. Zatímco američtí giganti soutěží o státní zakázky, objevují se další možnosti. Společnosti, jako je Airbnb, již experimentují s levnějšími čínskými modely, jako je Qwen společnosti Alibaba, aby mohly sloužit zákazníkům, přičemž uvádějí nákladovou efektivitu a flexibilitu.

Pro dlouhodobou udržitelnost zvažte interní hostování open source modelů, jako je GPT-OSS od OpenAI, Granite od IBM, Llama od Meta nebo Olmo od AI2. Testovací nástroje jako Artificial Analysis a Pinchbench vám mohou pomoci určit nejlepší modely pro vaše specifické potřeby.

Nová Due Diligence: Pokud obchodujete s federálními agenturami, musíte nyní potvrdit, že vaše produkty nespoléhají na zakázané poskytovatele umělé inteligence. Éra umělé inteligence slibovala demokratizaci, ale rychle se stává novým bojištěm pro zadávání zakázek a výkonnou moc.

Nejchytřejším krokem je diverzifikace, odprodej a příprava na rychlou změnu dodavatelů. Interakce s modelem již není luxus; je to nutnost.