Amerykański sąd apelacyjny odrzucił wniosek twórcy sztucznej inteligencji, firmy Anthropic, o zawieszenie decyzji rządu klasyfikującej tę firmę jako „ryzyko dla łańcucha dostaw”. Decyzja ta stwarza poważną przeszkodę w współpracy firmy z Departamentem Obrony USA (DoD), wyznaczając punkt zwrotny w narastającej konfrontacji pomiędzy prywatnymi twórcami sztucznej inteligencji a federalnymi interesami wojskowymi.
Istota sporu
Konflikt wynika z lutowej decyzji administracji Trumpa o uznaniu Anthropic za zagrożenie dla bezpieczeństwa. Ta klasyfikacja skutecznie uniemożliwia wykonawcom Pentagonu wykorzystywanie modeli sztucznej inteligencji Anthropic, takich jak asystent Claude’a, w jakichkolwiek kontraktach Departamentu Obrony.
Wydaje się, że spór ma swoje korzenie w fundamentalnych różnicach zdań dotyczących etycznych granic sztucznej inteligencji. Według doniesień firma Anthropic odmówiła wojsku nieograniczonego dostępu do swoich modeli, w szczególności sprzeciwiając się prośbom o wykorzystanie tej technologii do:
– Śmiertelnie autonomiczna broń działająca bez kontroli człowieka.
– Masowa inwigilacja obywateli USA.
Duży kontrakt jest zagrożony
Moment wszczęcia niniejszego postępowania sądowego ma kluczowe znaczenie dla działalności biznesowej Anthropic. W 2025 roku firmie przyznano kontrakt o wartości 200 mln dolarów na integrację jej technologii z systemami wojskowymi. Od czasu tej umowy firma Claude została głęboko zintegrowana z infrastrukturą rządu USA, w tym:
– Sieci przesyłania informacji niejawnych w departamentach federalnych.
– Krajowe laboratoria nuklearne.
– Procesy analizy wywiadowczej bezpośrednio dla Ministerstwa Obrony Narodowej.
Status „ryzyka łańcucha dostaw” grozi zakłóceniem tych operacji i może prowadzić do anulowania lub komplikacji tego kontraktu na dużą skalę.
Argumenty rządu: „Korporacyjne czerwone linie”
Departament Obrony uzasadniał swoje działania obawami o niezawodność sztucznej inteligencji w aktywnych warunkach bojowych. W dokumentach sądowych Departament Obrony argumentuje, że Anthropic może „zapobiegawczo modyfikować zachowanie” swoich modeli lub całkowicie je unieszkodliwiać podczas „operacji bojowych”, jeśli firma uzna, że jej wewnętrzne „czerwone linie” etyczne są naruszane.
Zasadniczo rząd obawia się, że zasady moralne i etyczne prywatnej firmy mogą zakłócać operacje związane z bezpieczeństwem narodowym w czasie kryzysu.
Konflikt prawny
Anthropic walczy obecnie z tą decyzją na dwóch frontach, oskarżając administrację o „bezprawną kampanię odwetową” za odmowę spełnienia żądań wojska.
Sytuacja prawna jest obecnie niejednoznaczna:
1. San Francisco: Anthropic niedawno wygrał oddzielny proces w San Francisco, zmuszając administrację do usunięcia podobnej etykiety.
2. Waszyngton (DC): Sąd Apelacyjny DC zajął odmienne stanowisko, odmawiając uchylenia obecnej decyzji, ponieważ „dokładny zakres szkód finansowych Anthropic jest niejasny”.
„Jesteśmy wdzięczni sądowi za uznanie, że kwestie te wymagają szybkiego rozwiązania, i mamy pewność, że sądy ostatecznie uznają ustalenia dotyczące ryzyka łańcucha dostaw za niezgodne z prawem” – stwierdziła Anthropic po orzeczeniu.
Co dalej?
Chociaż jest to cios dla Anthropic, batalia prawna jeszcze się nie skończyła. Sąd Apelacyjny wyznaczył na maj 2025 kolejną rozprawę, na której zostaną przedstawione dalsze dowody dotyczące legalności klasyfikacji oraz zakresu szkód finansowych spółki.
Wniosek: ta sprawa ilustruje wyłaniającą się walkę prawną i etyczną o to, czy prywatne firmy zajmujące się sztuczną inteligencją mają prawo nakładać ograniczenia etyczne na korzystanie z ich technologii przez rząd. Zbliżające się majowe przesłuchanie będzie krytycznym momentem w ustaleniu równowagi między autonomią przedsiębiorstw a wymogami bezpieczeństwa narodowego.
























