De Amerikaanse overheid en Anthropic, een toonaangevende ontwikkelaar van AI-modellen, zijn verwikkeld in een geschil dat onmiddellijke gevolgen heeft voor bedrijven die afhankelijk zijn van kunstmatige intelligentie. Op 27 februari 2026 gaf president Trump federale agentschappen het bevel het gebruik van de Claude-modellen van Anthropic stop te zetten nadat het bedrijf onbeperkte toegang voor militaire toepassingen had geweigerd. Het Pentagon bestempelde Anthropic als een ‘toeleveringsketenrisico voor de nationale veiligheid’, waarbij feitelijk een contract ter waarde van 200 miljoen dollar werd beëindigd en werd geëist dat Claude binnen zes maanden uit de overheidssystemen zou worden verwijderd.

Deze stap gaat niet over prestaties; Claude van Anthropic is een inkomstenbron van meer dan $2,5 miljard geworden, heeft onlangs $30 miljard opgehaald tegen een waardering van $380 miljard, en wordt breed gebruikt in alle sectoren – van Salesforce tot Spotify – voor aanzienlijke productiviteitswinsten. Het dispuut draait om de weigering van Anthropic om toe te staan ​​dat zijn modellen worden gebruikt voor massasurveillance of autonome wapensystemen, een standpunt dat het Pentagon als onaanvaardbaar beschouwt.

Het kernconflict: Anthropic heeft “rode lijnen” gezet met betrekking tot de manier waarop zijn technologie kan worden gebruikt, waarbij ethische overwegingen prioriteit krijgen boven onbeperkte militaire toegang. Het Pentagon dringt aan op ‘al het rechtmatige gebruik’, wat betekent dat er geen beperkingen zijn op toepassingen, ongeacht morele implicaties.

OpenAI en xAI zijn al in actie gekomen om de leemte op te vullen en zijn akkoord gegaan met de voorwaarden van het Pentagon, zij het met verschillende niveaus van effectiviteit. OpenAI heeft zojuist $110 miljard aan nieuwe investeringen binnengehaald van Amazon, Nvidia en SoftBank. De xAI van Elon Musk heeft ook ingestemd met de voorwaarden van het Pentagon, maar presteert naar verluidt slecht bij tests door de overheid.

Wat dit betekent voor bedrijven: De belangrijkste conclusie is niet politiek, maar praktisch. De afhankelijkheid van één enkele AI-provider creëert een kritieke kwetsbaarheid. Als uw AI-workflows zijn opgesloten in één API (of het nu Claude, GPT-4o of Gemini is), riskeert u verstoring als die provider onbruikbaar wordt als gevolg van regelgeving, geopolitieke druk of een andere onvoorziene gebeurtenis.

De oplossing: interoperabiliteit. De meest effectieve strategie is het bouwen van AI-systemen die naadloos tussen modellen kunnen schakelen. Dit vereist het gebruik van orkestratielagen en gestandaardiseerde promptformaten, waardoor u indien nodig binnen 24 uur van provider kunt wisselen.

Diversificatie buiten de VS: De markt verandert snel. Terwijl Amerikaanse giganten strijden om overheidscontracten, ontstaan ​​er andere opties. Bedrijven als Airbnb experimenteren al met goedkopere Chinese modellen zoals Alibaba’s Qwen voor klantenservice, daarbij verwijzend naar de kosten en flexibiliteit.

Voor veerkracht op de lange termijn kunt u overwegen om interne hosting van open-sourcemodellen te overwegen, zoals OpenAI’s GPT-OSS, IBM’s Granite, Meta’s Llama of AI2’s Olmo. Benchmarkingtools zoals Artificial Analysis en Pinchbench kunnen u helpen de beste modellen voor uw specifieke behoeften te identificeren.

Nieuwe due diligence: Als u zaken doet met federale instanties, moet u nu verklaren dat uw producten niet afhankelijk zijn van verboden AI-aanbieders. Het AI-tijdperk beloofde democratisering, maar het wordt snel een nieuw strijdtoneel voor aanbestedingen en uitvoerende macht.

De meest verstandige zet is om te diversifiëren, te ontkoppelen en je voor te bereiden om snel van aanbieder te wisselen. Modelinteroperabiliteit is niet langer een luxe; het is een noodzaak.