Americký odvolací soud zamítl žádost vývojáře AI Anthropic o pozastavení vládního rozhodnutí klasifikujícího společnost jako “riziko dodavatelského řetězce”. Toto rozhodnutí vytváří hlavní překážku pro angažmá společnosti s americkým ministerstvem obrany (DoD) a představuje zlomový bod v rostoucí konfrontaci mezi soukromými vývojáři AI a federálními vojenskými zájmy.
Podstata sporu
The conflict stems from the Trump administration’s decision in February to designate Anthropic a security threat. Tato klasifikace účinně brání dodavatelům Pentagonu v používání modelů umělé inteligence společnosti Anthropic, jako je například asistent Claude, na jakékoli smlouvy ministerstva obrany.
The friction appears to be rooted in fundamental disagreements about the ethical boundaries of AI. Anthropic údajně odmítl umožnit armádě neomezený přístup ke svým modelům, konkrétně se postavil proti žádostem o použití technologie k:
– Smrtící autonomní zbraně fungující bez lidské kontroly.
– Hromadné sledování občanů USA.
Velký kontrakt je v ohrožení
The timing of this litigation is critical to Anthropic’s business operations. V roce 2025 získala společnost kontrakt v hodnotě 200 milionů $ na integraci své technologie do vojenských systémů. Od této dohody se Claude hluboce začlenil do vládní infrastruktury USA, včetně:
– Sítě pro přenos utajovaných informací ve federálních ministerstvech.
– Národní jaderné laboratoře.
– Intelligence analysis processes directly for the Ministry of Defense.
Stav „riziko dodavatelského řetězce“ hrozí narušením těchto operací a mohl by vést ke zrušení nebo komplikaci této rozsáhlé zakázky.
Government Arguments: “Corporate Red Lines”
Ministerstvo obrany odůvodnilo své kroky obavami o spolehlivost AI v podmínkách aktivního boje. V soudních dokumentech ministerstvo obrany tvrdí, že Anthropic může „preventivně upravit chování“ svých modelů nebo je zcela deaktivovat během „bojových operací“, pokud se společnost domnívá, že jsou porušovány její vnitřní etické „červené linie“.
Vláda se v podstatě obává, že morální a etické zásady soukromé společnosti by mohly v době krize zasahovat do operací národní bezpečnosti.
Legal standoff
Anthropic v současné době bojuje proti rozhodnutí na dvou frontách a obviňuje administrativu z „nezákonné odvetné kampaně“ za to, že odmítá vyhovět požadavkům armády.
Právní situace je v současné době nejednoznačná:
1. San Francisco: Společnost Anthropic nedávno vyhrála samostatný soudní spor v San Franciscu a přinutila administrativu, aby podobnou nálepku odstranila.
2. Washington (DC): Odvolací soud D.C. zaujal jiný postoj a odmítl zrušit současné rozhodnutí, protože „přesný rozsah finančních škod společnosti Anthropic není jasný“.
„Jsme vděčni soudu za to, že uznal, že tyto problémy vyžadují rychlé vyřešení, a jsme přesvědčeni, že soudy nakonec rozhodnou tato stanovení rizik dodavatelského řetězce jako nezákonná,“ uvedl Anthropic po rozhodnutí.
Co bude dál?
I když je to pro Anthropic rána, právní bitva zdaleka nekončí. Odvolací soud naplánoval další jednání na květen 2025, na kterém budou předloženy další důkazy o zákonnosti klasifikace a rozsahu finančních škod společnosti.
Závěr: Tento případ poukazuje na vznikající právní a etický boj o to, zda soukromé společnosti s umělou inteligencí mají právo uvalit etická omezení na vládní použití jejich technologie. Nadcházející slyšení v květnu bude kritickým okamžikem při určování rovnováhy mezi firemní autonomií a požadavky národní bezpečnosti.
