Ein US-Berufungsgericht hat einen Antrag des KI-Entwicklers Anthropic abgelehnt, eine Regierungseinstufung auszusetzen, die das Unternehmen als Lieferkettenrisiko einstuft. Diese Entscheidung stellt ein erhebliches Hindernis für die Fähigkeit des Unternehmens dar, Geschäfte mit dem Verteidigungsministerium (DoD) abzuwickeln, und markiert einen entscheidenden Moment in der wachsenden Spannung zwischen privaten KI-Entwicklern und militärischen Interessen des Bundes.
Der Kern des Streits
Der Konflikt geht auf eine Entscheidung der Trump-Regierung im Februar zurück, Anthropic als Sicherheitsrisiko einzustufen. Diese Bezeichnung verbietet Vertragspartnern des Pentagons effektiv die Nutzung der KI-Modelle von Anthropic, wie etwa des Claude -Assistenten, für Verträge des Verteidigungsministeriums.
Der Grund für die Spannungen scheint eine grundsätzliche Meinungsverschiedenheit über die ethischen Grenzen des KI-Einsatzes zu sein. Anthropic hat sich Berichten zufolge geweigert, dem Militär uneingeschränkten Zugang zu seinen Modellen zu gewähren, und sich insbesondere Anträgen widersetzt, die Technologie für folgende Zwecke zu nutzen:
– Tödliche autonome Waffen, die ohne menschliche Aufsicht funktionieren.
– Massenüberwachung amerikanischer Bürger.
Ein risikoreicher Vertrag
Der Zeitpunkt dieses Rechtsstreits ist für die Geschäftstätigkeit von Anthropic von entscheidender Bedeutung. Im Jahr 2025 sicherte sich das Unternehmen einen 200-Millionen-Dollar-Vertrag zur Integration seiner Technologie in militärische Systeme. Seit diesem Deal ist Claude tief in die Infrastruktur der US-Regierung integriert, darunter:
– Geheiminformationsnetzwerke in der gesamten Bundesregierung.
– Nationale Nuklearlabore.
– Arbeitsabläufe zur Geheimdienstanalyse direkt für das Verteidigungsministerium.
Das Etikett „Lieferkettenrisiko“ droht diese Abläufe zu stören und könnte möglicherweise die Ausführung dieses umfangreichen Vertrags ungültig machen oder erschweren.
Das Argument der Regierung: „Corporate Red Lines“
Das Verteidigungsministerium hat sein Vorgehen mit Bedenken hinsichtlich der Zuverlässigkeit der KI bei aktiven Konflikten begründet. In rechtlichen Unterlagen argumentierte das Verteidigungsministerium, dass Anthropic das Verhalten seiner Modelle „präventiv ändern“ oder sie während „Kriegseinsätzen“ vollständig deaktivieren könnte, wenn das Unternehmen das Gefühl hat, dass seine internen ethischen „roten Linien“ überschritten werden.
Im Wesentlichen befürchtet die Regierung, dass die moralischen oder ethischen Rahmenbedingungen eines Privatunternehmens während einer Krise die nationalen Sicherheitsmaßnahmen beeinträchtigen könnten.
Legales Tauziehen
Anthropic kämpft derzeit an zwei Fronten gegen diese Bezeichnung und wirft der Regierung eine „rechtswidrige Vergeltungskampagne“ wegen ihrer Weigerung, militärischen Forderungen nachzukommen, vor.
Die Rechtslandschaft ist derzeit gespalten:
1. San Francisco: Anthropic gewann kürzlich eine separate Klage vor einem Gericht in San Francisco, die die Regierung dazu zwang, ein ähnliches Etikett zu entfernen.
2. Washington D.C.: Das Berufungsgericht des D.C. Circuit hat einen anderen Standpunkt vertreten und sich geweigert, die aktuelle Bezeichnung zu widerrufen, weil „die genaue Höhe des finanziellen Schadens von Anthropic nicht klar ist“.
„Wir sind dankbar, dass das Gericht erkannt hat, dass diese Probleme schnell gelöst werden müssen, und sind weiterhin zuversichtlich, dass die Gerichte letztendlich zustimmen werden, dass diese Lieferkettenbezeichnungen rechtswidrig waren“, erklärte Anthropic nach dem Urteil.
Was passiert als nächstes?
Obwohl dies ein Rückschlag für Anthropic ist, ist der Rechtsstreit noch lange nicht vorbei. Das Berufungsgericht hat für Mai 2025 weitere Anhörungen angesetzt, in denen weitere Beweise zur Rechtmäßigkeit der Benennung und zum Ausmaß des finanziellen Schadens des Unternehmens vorgelegt werden.
Schlussfolgerung: Dieser Fall verdeutlicht einen aufkeimenden rechtlichen und ethischen Streit darüber, ob private KI-Unternehmen das Recht haben, ethische Beschränkungen für die Nutzung ihrer Technologie durch den Staat aufzuerlegen. Die bevorstehenden Anhörungen im Mai werden ein entscheidender Moment bei der Bestimmung des Gleichgewichts zwischen Unternehmensautonomie und nationalen Sicherheitsanforderungen sein.
