Een Amerikaans hof van beroep heeft een verzoek van AI-ontwikkelaar Anthropic afgewezen om een overheidsaanduiding te onderbreken die het bedrijf bestempelt als een ‘toeleveringsketenrisico’. Deze beslissing handhaaft een aanzienlijke barrière voor het vermogen van het bedrijf om zaken te doen met het ministerie van Defensie (DoD), wat een cruciaal moment markeert in de groeiende spanning tussen particuliere AI-ontwikkelaars en federale militaire belangen.
De kern van het geschil
Het conflict komt voort uit een besluit van de regering-Trump om Anthropic in februari als een veiligheidsrisico te bestempelen. Deze benaming verbiedt contractanten van het Pentagon feitelijk om de AI-modellen van Anthropic, zoals de Claude -assistent, te gebruiken voor contracten bij het Ministerie van Defensie.
De wrijving lijkt te zijn geworteld in een fundamenteel meningsverschil over de ethische grenzen van de inzet van AI. Anthropic heeft naar verluidt geweigerd het leger onbeperkte toegang te verlenen tot zijn modellen, en heeft zich met name verzet tegen verzoeken om de technologie te gebruiken voor:
– Dodelijke autonome wapens die zonder menselijk toezicht opereren.
– Massabewaking van Amerikaanse burgers.
Een contract met hoge inzet wordt bedreigd
De timing van deze juridische strijd is van cruciaal belang voor de commerciële activiteiten van Anthropic. In 2025 haalde het bedrijf een contract ter waarde van $200 miljoen binnen om zijn technologie in militaire systemen te integreren. Sinds die deal is Claude diep verankerd geraakt in de infrastructuur van de Amerikaanse overheid, waaronder:
– Gerubriceerde informatienetwerken binnen de federale overheid.
– Nationale nucleaire laboratoria.
– Workflows voor inlichtingenanalyse rechtstreeks voor het Ministerie van Defensie.
Het label ‘supply chain risk’ dreigt deze operaties te verstoren en zou de uitvoering van dit enorme contract mogelijk ongeldig kunnen maken of bemoeilijken.
Het argument van de regering: “Corporate Red Lines”
Het ministerie van Defensie heeft zijn acties gerechtvaardigd door bezorgdheid te uiten over de betrouwbaarheid van AI tijdens actieve conflicten. In juridische dossiers betoogde het Ministerie van Defensie dat Anthropic “preventief het gedrag”** van zijn modellen zou kunnen veranderen of ze volledig zou kunnen uitschakelen tijdens “oorlogsoperaties” als het bedrijf vindt dat zijn interne ethische “rode lijnen” worden overschreden.
In wezen vreest de regering dat het morele of ethische kader van een particuliere onderneming de nationale veiligheidsoperaties tijdens een crisis zou kunnen belemmeren.
Juridisch touwtrekken
Anthropic vecht momenteel op twee fronten tegen deze benaming en beschuldigt de regering van een “onwettige vergeldingscampagne”** vanwege haar weigering om aan de militaire eisen te voldoen.
Het juridische landschap is momenteel verdeeld:
1. San Francisco: Anthropic heeft onlangs een afzonderlijke rechtszaak gewonnen bij een rechtbank in San Francisco, waardoor de regering werd gedwongen een soortgelijk label te verwijderen.
2. Washington D.C.: Het D.C. Circuit Court of Appeals heeft een ander standpunt ingenomen en weigert de huidige aanwijzing in te trekken omdat het “precieze bedrag van de financiële schade van Anthropic niet duidelijk is.”
“We zijn dankbaar dat de rechtbank heeft erkend dat deze problemen snel moeten worden opgelost en blijven er vertrouwen in dat de rechtbanken het er uiteindelijk over eens zullen zijn dat deze toeleveringsketen-aanduidingen onwettig waren”, aldus Anthropic na de uitspraak.
Wat gebeurt er daarna?
Hoewel dit een tegenslag is voor Anthropic, is de juridische strijd nog lang niet voorbij. Het hof van beroep heeft verdere hoorzittingen gepland voor mei 2025, waar meer bewijsmateriaal over de wettigheid van de aanwijzing en de omvang van de financiële schade van het bedrijf zal worden gepresenteerd.
Conclusie: Deze zaak benadrukt een ontluikend juridisch en ethisch strijdtoneel over de vraag of particuliere AI-bedrijven het recht hebben om ethische beperkingen op te leggen aan de manier waarop hun technologie door de staat wordt gebruikt. De komende hoorzittingen in mei zullen een beslissend moment zijn bij het bepalen van de balans tussen bedrijfsautonomie en nationale veiligheidsvereisten.
