За 120 стремительных минут, вызвавших потрясение в Кремниевой долине и Вашингтоне, отношения федерального правительства с индустрией искусственного интеллекта достигли исторического перелома. После полуденного заявления президента Дональда Трампа в Truth Social о полном запрете продуктов Anthropic в федеральном правительстве, министр обороны Пит Хегсет еще больше обострил ситуацию. К середине дня Министерство обороны (DoD) официально признало Anthropic «риском для цепочки поставок».
Этот шаг знаменует собой радикальный отход от прежних позиций администрации в отношении отечественных ИИ-компаний. В то время как исторически правительство резервировало подобные обозначения для иностранных организаций — прежде всего китайских телекоммуникационных гигантов — применение этого ярлыка к компании из Сан-Франциско, поддерживаемой миллиардами американского венчурного капитала, сигнализирует о новой эре регуляторной нестабильности. Anthropic уже заявила о своем намерении оспорить это решение, подготавливая почву для масштабной судебной битвы за будущее американского ландшафта ИИ.
Чтобы понять всю серьезность заявления секретаря Хегсета, нужно заглянуть за политическую риторику в механизм федеральных закупок. Когда Министерство обороны называет компанию риском для цепочки поставок, это не просто рекомендация избегать их программного обеспечения; это функциональное внесение в черный список.
Согласно Закону о безопасности цепочки поставок при федеральных закупках (FASCSA), такое обозначение позволяет правительству издавать приказы об исключении или удалении. Это означает, что не только федеральному правительству запрещено покупать модели «Claude» от Anthropic, но и любой сторонний подрядчик — от оборонных гигантов, таких как Lockheed Martin, до небольших ИТ-консультантов — может быть вынужден удалить интеграции Anthropic из своих систем, если хочет сохранить государственные контракты.
На практике это создает эффект «карантина». Если Anthropic считается риском для целостности федеральной цепочки поставок, любые данные, проходящие через их модели, рассматриваются как потенциально скомпрометированные или подверженные несанкционированному влиянию.
В основе этого конфликта лежит сама идентичность Anthropic. Основанная бывшими руководителями OpenAI, Anthropic позиционирует себя как компания, ставящая безопасность ИИ на первое место. Их запатентованный метод обучения, известный как Конституционный ИИ, включает в себя предоставление модели письменного набора принципов («конституции»), которым она должна следовать при генерации ответов.
Хотя технологическая индустрия в значительной степени приветствовала это как способ предотвратить вред или предвзятость ИИ, нынешняя администрация, похоже, рассматривает эти защитные барьеры через другую призму. Критики внутри администрации охарактеризовали эти фильтры как форму «алгоритмической цензуры» или «идеологической предвзятости», которая может помешать объективной обработке необработанных данных, необходимой для военных и разведывательных приложений.
Маркируя компанию как риск для цепочки поставок, Министерство обороны предполагает, что те самые меры предосторожности, которые Anthropic использует для обеспечения «полезности, честности и безвредности», в боевом или стратегическом контексте могут представлять собой уязвимость или отказ следовать законным приказам.
Anthropic не существует в вакууме. Компания глубоко интегрирована в инфраструктуру крупнейших мировых облачных провайдеров. Amazon (AWS) и Google инвестировали миллиарды в Anthropic, размещая Claude на своих соответствующих платформах (Bedrock и Vertex AI).
Это решение ставит облачных гигантов в неудобное положение. Если Министерство обороны утверждает, что Anthropic является риском для цепочки поставок, распространяется ли этот риск на платформы, которые их размещают?
| Заинтересованная сторона | Потенциальное влияние |
|---|---|
| Федеральные агентства | Немедленный переход от рабочих процессов на базе Claude к альтернативам, таким как OpenAI или xAI. |
| Оборонные подрядчики | Обязательный аудит стеков программного обеспечения для выявления и удаления вызовов API Anthropic. |
| Облачные провайдеры | Потенциальное давление с целью изоляции или ограничения услуг Anthropic в средах GovCloud. |
| Корпоративные пользователи | Рост неопределенности относительно долгосрочной регуляторной стабильности рынка ИИ. |
Ответ Anthropic был быстрым. В кратком заявлении компания выразила «разочарование и несогласие», утверждая, что их технология создана на американской земле американскими гражданами и с упором на национальную безопасность и надежность.
Юристы предполагают, что иск Anthropic, скорее всего, будет сосредоточен на стандарте «произвольности и необоснованности» Закона об административных процедурах (APA). Чтобы поддержать статус риска для цепочки поставок, Министерство обороны обычно должно предоставить доказательства реальной угрозы. Поскольку Anthropic является отечественной компанией без известных связей с иностранными противниками, правительство может быть вынуждено раскрыть секретные обоснования запрета — или рискнуть тем, что приказ будет аннулирован федеральным судьей.
Для технических директоров и лиц, принимающих решения в сфере ИТ, эта эскалация является тревожным сигналом относительно «зависимости от поставщика» в эпоху ИИ. Внезапный переход крупного игрока из статуса «лидера отрасли» в «риск для цепочки поставок» подчеркивает необходимость диверсифицированной стратегии ИИ.
По мере начала юридической битвы технологическая индустрия задается вопросом: если компания, основанная на принципе безопасности, может быть признана риском, кто на самом деле находится в безопасности в новом регуляторном климате?



Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.
/ Создать бесплатный аккаунт