На протяжении многих лет отношения между пионерами ИИ из Кремниевой долины и Министерством обороны США (DoD) напоминали деликатный танец взаимной необходимости. Но по состоянию на февраль 2026 года этот танец превратился в публичную и экзистенциальную потасовку. В центре конфликта находится Anthropic — стартап, ориентированный на безопасность, который сейчас оценивается в умопомрачительные 380 миллиардов долларов, — и, казалось бы, простой пункт из трех слов, который Пентагон требует включить в свои последние контракты на закупки: «любое законное использование» (any lawful use).
Хотя эта фраза звучит как стандартная юридическая формулировка, она представляет собой фундаментальный сдвиг в том, как искусственный интеллект будет развертываться в современной войне. Для Anthropic согласие на эти условия означало бы демонтаж самой структуры «Конституционного ИИ», которая определяет их бренд. Для Пентагона это вопрос национальной безопасности и гарантия того, что американский ИИ не будет скован этикой частного сектора в глобальной гонке вооружений.
Положение о «любом законном использовании» стало новым золотым стандартом интеграции ИИ в Министерстве обороны. По сути, оно требует от поставщиков ИИ отказаться от их специфических политик «допустимого использования» — правил, которые обычно запрещают использовать ИИ для насилия, слежки или разработки оружия, — до тех пор, пока применение военными считается законным в соответствии с международным и внутренним правом.
Отчеты указывают на то, что OpenAI и xAI Илона Маска уже незаметно обновили свои условия обслуживания, чтобы соответствовать этому требованию. Сделав это, они расчистили путь для интеграции своих моделей в «цепочку поражения» (kill chain) — процесс идентификации, отслеживания и поражения целей. Anthropic, однако, остается единственным отказником среди «Большой тройки» поставщиков базовых моделей, что привело к многонедельной битве, разыгрывающейся через утечки служебных записок и острые перепалки в социальных сетях.
Чтобы понять, почему Anthropic упорствует, нужно посмотреть на то, как строятся их модели. В отличие от других LLM, которые обучаются в основном через обратную связь от человека, модели Claude от Anthropic управляются «Конституцией» — набором письменных принципов, которые ИИ использует для надзора за собственным поведением.
Если Пентагон интегрирует Claude в систему, предназначенную для массовой слежки или, что еще более спорно, в смертоносные автономные системы вооружения (LAWS), ИИ столкнется с логическим парадоксом. Его основное программирование запрещает ему помогать в причинении вреда или нарушении прав человека, однако его операционные команды будут требовать именно этого.
«Мы говорим не просто об изменении политики», — отметил один неназванный инженер Anthropic на недавнем форуме. «Мы говорим о лоботомии архитектуры безопасности, которая делает нашу модель тем, чем она является. У вас не может быть "безопасного" ИИ, который при этом уполномочен автономно принимать решение об уничтожении цели».
Наиболее значительная точка трения касается ИИ, который может выслеживать и уничтожать цели без участия человека. В то время как Пентагон официально утверждает, что окончательное решение о применении смертоносной силы всегда будет принимать человек, пункт о «любом законном использовании» обеспечивает юридическое прикрытие для будущего, где скорость является основным оружием. Например, в сценарии с роем дронов оператор-человек может оказаться слишком медленным, чтобы санкционировать отдельные удары, оставляя управление боем на ИИ.
Руководство Anthropic утверждает, что нынешним моделям ИИ не хватает «здравого смысла» и ситуационной осведомленности, чтобы отличить комбатанта от гражданского лица в хаосе реального поля боя. Отказываясь от условий Пентагона, Anthropic фактически делает ставку на то, что рынок — и общественность — в конечном итоге оценят безопасность выше чистой военной полезности.
Противостояние происходит в опасное для Anthropic время. При оценке в 380 миллиардов долларов давление с целью получения огромной выручки колоссально. Правительственные контракты — это крупнейшая нетронутая золотая жила в секторе ИИ. Упираясь, Anthropic рискует быть отстраненной от программы Joint Warfighting Cloud Capability (JWCC) и других многомиллиардных инициатив, потенциально уступая весь оборонный рынок OpenAI и xAI.
Критики позиции Anthropic утверждают, что если самые «этичные» ИИ-компании откажутся работать с военными, Пентагон просто будет полагаться на менее согласованные модели, что приведет к более опасному результату. Сторонники же видят в Anthropic последнюю линию обороны против эскалации автоматизированной войны в стиле «Черного зеркала».
эти переговоры являются лакмусовой бумажкой для всей индустрии программного обеспечения. Они сигнализируют об окончании эры «двигайся быстро и ломай стереотипы» для ИИ и начале периода, когда технологические компании должны решить, являются ли они нейтральными инструментами или моральными агентами.
| Характеристика | Позиция Anthropic | Позиция OpenAI/xAI |
|---|---|---|
| «Любое законное использование» | Отклонено (на данный момент) | Принято |
| Смертоносная автономность | Строго запрещена | Разрешена под надзором Минобороны |
| Механизм безопасности | Конституционный ИИ (жестко вшит) | RLHF и на основе политик |
| Основная цель | Согласование и безопасность | Быстрое масштабирование и полезность |
По мере того как эта битва продолжает разворачиваться, компаниям и разработчикам следует учитывать следующее:
Переговоры между Anthropic и Пентагоном — это не просто контракт; это референдум о душе искусственного интеллекта. По мере того как мы углубляемся в 2026 год, индустрия будет следить за тем, сможет ли Anthropic сохранить свои моральные принципы, не жертвуя своим финансовым будущим. На данный момент эти три слова — «любое законное использование» — остаются самыми дорогими словами в истории Кремниевой долины.



Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.
/ Создать бесплатный аккаунт