Апелляционный суд США отклонил запрос разработчика ИИ Anthropic о приостановке государственного решения, классифицирующего компанию как «риск для цепочки поставок». Это решение создает серьезный барьер для взаимодействия компании с Министерством обороны США (DoD), что знаменует собой поворотный момент в растущем противостоянии между частными разработчиками ИИ и интересами федеральных военных ведомств.

Суть спора

Конфликт возник в результате решения администрации Трампа в феврале признать Anthropic угрозой безопасности. Данная классификация фактически запрещает подрядчикам Пентагона использовать модели ИИ от Anthropic, такие как помощник Claude, в рамках любых контрактов Министерства обороны.

Судя по всему, корень трений кроется в фундаментальных разногласиях относительно этических границ применения ИИ. Сообщается, что Anthropic отказалась предоставить военным неограниченный доступ к своим моделям, в частности, воспротивившись запросам на использование технологий для:
Смертоносного автономного оружия, действующего без контроля со стороны человека.
Массовой слежки за гражданами США.

Под угрозой крупный контракт

Время этого судебного процесса критически важно для коммерческой деятельности Anthropic. В 2025 году компания заключила контракт на сумму 200 миллионов долларов для интеграции своих технологий в военные системы. С момента заключения этой сделки Claude стал глубоко интегрирован в инфраструктуру правительства США, включая:
— Сети передачи секретной информации в федеральных ведомствах.
— Национальные ядерные лаборатории.
— Процессы анализа разведывательных данных непосредственно для Министерства обороны.

Статус «риска для цепочки поставок» грозит нарушить эти операции и может привести к аннулированию или осложнению выполнения этого масштабного контракта.

Аргументы правительства: «Корпоративные красные линии»

Министерство обороны обосновало свои действия опасениями по поводу надежности ИИ в условиях активных боевых действий. В судебных документах DoD утверждает, что Anthropic может «превентивно изменить поведение» своих моделей или полностью отключить их во время «боевых операций», если компания сочтет, что нарушаются её внутренние этические «красные линии».

По сути, правительство опасается, что морально-этические принципы частной компании могут помешать операциям по обеспечению национальной безопасности в кризисный момент.

Юридическое противостояние

В настоящее время Anthropic борется с этим решением на два фронта, обвиняя администрацию в «незаконной кампании возмездия» за отказ выполнять требования военных.

Правовая ситуация на данный момент неоднозначна:
1. Сан-Франциско: Недавно Anthropic выиграла отдельный иск в суде Сан-Франциско, что вынудило администрацию снять аналогичный ярлык.
2. Вашингтон (округ Колумбия): Апелляционный суд округа Колумбия занял иную позицию, отказавшись отменять текущее решение, поскольку «точный размер финансового ущерба, нанесенного Anthropic, не ясен».

«Мы благодарны суду за признание того, что эти вопросы требуют быстрого решения, и по-прежнему уверены, что суды в конечном итоге признают данные определения рисков цепочки поставок незаконными», — заявили в Anthropic после вынесения решения.

Что дальше?

Несмотря на то, что это удар для Anthropic, юридическая битва еще далека от завершения. Апелляционный суд назначил дальнейшие слушания на май 2025 года, на которых будут представлены дополнительные доказательства законности классификации и масштабов финансового ущерба компании.


Заключение: Данное дело подчеркивает формирующееся поле юридических и этических битв вокруг вопроса о том, имеют ли право частные ИИ-компании накладывать этические ограничения на использование их технологий государством. Предстоящие майские слушания станут решающим моментом в определении баланса между корпоративной автономией и требованиями национальной безопасности.