Масштабы современных военных действий претерпевают фундаментальный сдвиг: процесс переходит от темпов, продиктованных человеком, к темпам, управляемым алгоритмами. Во время недавних операций против Ирана вооруженные силы США поразили более 1000 целей в течение одних суток — это почти вдвое превышает интенсивность кампании «шока и трепета», применявшейся в Ираке два десятилетия назад.
Это ускорение является результатом не просто увеличения количества оружия, а цифровой революции в самой «цепочке поражения» (kill chain). В центре этой трансформации стоит Project Maven — система, которая стремительно превращается из узкоспециализированного разведывательного эксперимента в основу возможностей США и НАТО по выбору и поражению целей.
От видео с дронов до «белых точек» на карте
Проект Maven зародился в 2017 году как попытка использовать компьютерное зрение для анализа колоссальных объемов видеоматериалов, полученных с беспилотников. Ранее аналитики-люди могли обрабатывать лишь ничтожную часть — иногда всего 4% — данных, собранных дронами. Цель заключалась в том, чтобы использовать ИИ в качестве «второй пары глаз», способной распознавать объекты и закономерности, которые человек может упустить.
Развитие проекта было подстегнуто усилиями полковника Дрю Кукора, офицера разведки морской пехоты, который стремился решить хроническую проблему: фрагментированную, «аналоговую» природу военной разведки. В прошлых конфликтах, таких как в Афганистане, критически важные данные часто были заперты в статичных форматах вроде таблиц Excel и презентаций PowerPoint, что затрудняло доступ операторов на передовой к разведданным в реальном времени.
Кукор представлял себе более бесшовный интерфейс — то, что он назвал «белыми точками» на карте. Это были бы интеллектуальные координаты, предоставляющие не просто местоположение, но также высоту, идентификацию и статус объекта в режиме реального времени. Это видение превратило Maven из простого инструмента анализа в комплексную систему управления рабочими процессами.
Расцвет ИИ-цепочки поражения
Интеграция ИИ позволила резко сократить время, необходимое для перехода от обнаружения цели к нанесению удара. Этот процесс, известный как «цепочка поражения», традиционно включал множество этапов с участием человека: сбор данных, оценка, принятие решения, связь и выполнение удара.
С появлением системы Maven Smart System роль человека была радикально минимизирована:
– Автоматизация оценки: ИИ теперь берет на себя большую часть синтеза данных, включая спутниковые снимки, показания радаров и информацию из социальных сетей.
– Интеграция LLM: Большие языковые модели (LLM), такие как Claude от Anthropic, используются для обработки информации и ускорения подготовки отчетов.
– Снижение человеческого контроля: Хотя военные утверждают, что окончательное решение об ударе по-прежнему принимает человек, «промежуточные» этапы — оценка и передача данных — всё чаще возлагаются на машины.
«Процесс, который раньше занимал часы, теперь может быть завершен за секунды», — заявляют военные чиновники.
Такая скорость позволяет США экспоненциально масштабировать свои операции. Если раньше военные могли поражать примерно 100 целей в день, то системы с поддержкой ИИ подняли это число до 1000, а по мере дальнейшей интеграции LLM потенциал может вырасти до 5000 целей.
Опасность алгоритмической скорости
В то время как сторонники технологии утверждают, что ИИ повышает точность и снижает вероятность человеческой ошибки, стремительное ускорение процесса выбора целей порождает глубокие этические и операционные риски. Скорость, с которой работают эти системы, может практически не оставлять места для «обдумывания», необходимого для обнаружения ошибок.
Недавний удар по иранской школе, в результате которого погибло более 150 человек (в основном дети), служит мрачным примером. В то время как основные дебаты велись вокруг того, «галлюцинировал» ли ИИ, определяя цель, историки технологий утверждают, что более глубокая проблема заключается в самом ускорении. Если в базе данных содержится ошибка — например, школа ошибочно помечена как военный объект — система ИИ может обработать эту ошибку и представить её как высокоточную цель гораздо быстрее, чем человек успеет её проверить.
Выявленные ключевые риски включают:
* Целостность данных: Автоматизированная система точна лишь настолько, насколько точна её база данных. Если данные неверны, ИИ просто совершит ошибку более эффективно.
* «Геймификация» войны: Военные этики предупреждают, что высокотехнологичные пользовательские интерфейсы могут привести к тому, что операторы начнут слепо доверять целям, сгенерированным ИИ, воспринимая летальные решения как работу с цифровым интерфейсом, а не как событие с колоссальными человеческими последствиями.
* Потеря стратегического анализа: Как отметил бывший министр обороны Джим Мэттис, высокоскоростное поражение целей не является заменой стратегии. Удары по большему количеству целей в более короткие сроки не обязательно означают победу в конфликте.
Новая эра ведения войны
Перевод Project Maven в статус «основной программы» (program of record) сигнализирует о том, что армия США полностью делает ставку на будущее, управляемое ИИ. От тестирования алгоритмов в условиях украинской зимы до развертывания автоматизированного наблюдения — марш к автономным войнам уже идет полным ходом.
Заключение: По мере того как армия США внедряет ИИ в ядро своих циклов выбора целей, главная проблема смещается от технологических возможностей к ответственности за данные. Скорость машины может обеспечить беспрецедентную эффективность, но она также несет в себе риск превращения человеческих ошибок в стремительные и масштабные трагедии.























