Пентагон интегрирует ИИ восьми IT-компаний в закрытые военные сети
Министерство обороны США инициировало масштабную программу интеграции технологий искусственного интеллекта в свои закрытые сетевые контуры, заключив контракты с восемью ключевыми представителями технологического сектора. В пул подрядчиков вошли SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft, Amazon и Oracle.
Техническая реализация и интеграция
Речь идет не о традиционном доступе к облачным API, а о развертывании моделей ИИ непосредственно внутри инфраструктуры ведомства. Технологии будут интегрированы в среды, соответствующие уровням защиты Impact Level (IL) 6 и 7. Это означает, что нейросети будут работать с засекреченной информацией, обеспечивая синтез данных в оперативных условиях.Проще говоря, цель Пентагона — внедрить модели в периметр безопасности, чтобы автоматизировать принятие решений на тактическом и стратегическом уровнях. Стратегия диверсификации обусловлена стремлением избежать «зависимости от одного поставщика» (vendor lock-in), что стало критически важным после обострения отношений с компанией Anthropic.
Конфликт с Anthropic как катализатор изменений
До недавнего времени именно Anthropic была основным партнером оборонного ведомства: в 2025 году был подписан контракт на сумму около 200 млн долларов на интеграцию моделей Claude в военные системы. Однако сотрудничество столкнулось с серьезными препятствиями.Причиной стали ограничения, наложенные Anthropic на использование своих инструментов. Компания запретила применять Claude для внутреннего наблюдения (в интересах ФБР или иммиграционных служб), а также ограничила использование моделей в системах автономного вооружения. В результате Пентагон предпринял шаги по исключению инструментов Anthropic из своих контуров к концу 2026 года и инициировал процедуру по включению компании в «черный список» по соображениям национальной безопасности.
Этическая дискуссия и сопротивление разработчиков
Привлечение коммерческих технологических гигантов к оборонным контрактам вновь актуализировало дискуссию об этике ИИ. Аналогично ситуации с проектом Project Maven в 2018 году, текущие сделки вызывают протест внутри самих компаний.Например, более 600 сотрудников Google направили обращение руководству, выразив обеспокоенность участием в военных контрактах. По условиям соглашения, Google обязана корректировать фильтры безопасности и настройки моделей по запросу властей США. При этом компания лишена права блокировать законные, по мнению правительства, решения, что фактически нивелирует контроль разработчика над использованием его продукта.Для Пентагона текущая схема сотрудничества — это попытка получить доступ к передовым разработкам без оглядки на ограничения, накладываемые политикой конфиденциальности или коммерческими этическими кодексами отдельных вендоров. На практике это значит, что ведомство намерено использовать коммерческие ИИ-решения исключительно в рамках своих внутренних регламентов и законодательства США, независимо от позиции компаний-разработчиков.