Напряженность между этическими принципами Кремниевой долины и стратегическими требованиями Министерства обороны достигла точки кипения. В четверг компания Anthropic, ориентированная на безопасность ИИ и стоящая за моделью Claude, ответила решительным отказом на требование Пентагона, которое в корне изменило бы архитектуру ее искусственного интеллекта.
В центре спора — контракт на 200 миллионов долларов и запрос министра обороны Пита Хегсета об удалении «защитных барьеров» (guardrails), управляющих поведением Claude. Руководство Anthropic заявило, что «не может с чистой совестью» пойти на это, подготавливая почву для знакового противостояния по вопросу роли частных технологий в национальной безопасности.
Конфликт сосредоточен вокруг масштабной сделки по закупкам, предназначенной для интеграции расширенных возможностей рассуждения Claude в военную логистику и стратегическое планирование. Однако нынешнее руководство Пентагона все больше разочаровывается ограничительным характером коммерческого ИИ.
Министр обороны Пит Хегсет охарактеризовал эти протоколы безопасности как «наручники», которые мешают американским военным сохранять конкурентное преимущество перед противниками, которые могут не быть связаны подобными этическими ограничениями. Ультиматум ясен: либо Anthropic предоставляет «неограниченную» версию Claude — способную генерировать тактические советы или стратегии поражения без блокировки фильтрами безопасности, — либо контракт будет расторгнут.
Чтобы понять, почему Anthropic готова отказаться от столь значительной суммы, необходимо понять, что именно делают эти проверки безопасности. В мире больших языковых моделей (LLM) защитные барьеры — это не просто простые фильтры ключевых слов. Это глубоко интегрированные уровни обучения, часто называемые «Конституционным ИИ».
Эти уровни не позволяют модели помогать в создании биологического оружия, генерировать разжигание ненависти или предоставлять инструкции для кибератак. Удаление этих проверок для военных, по сути, создало бы «взломанную» (jailbroken) версию модели. В то время как Пентагон утверждает, что это необходимо для принятия решений в условиях высоких ставок, где ИИ не должен «читать нотации» командиру, Anthropic опасается, что модель без границ может быть использована не по назначению или вести себя непредсказуемо, что приведет к катастрофическому ущербу в реальном мире.
Реакция Anthropic укоренена в ее основополагающей миссии. В отличие от многих своих конкурентов, Anthropic была создана специально для решения рисков катастрофического отказа ИИ. В своем официальном заявлении компания подчеркнула, что их протоколы безопасности — это не «политкорректность», а важные технические гарантии, разработанные для того, чтобы ИИ оставался полезным, безвредным и честным.
«Наши протоколы безопасности не являются необязательными функциями; они являются основой надежности модели. Удалить их — значит выпустить инструмент, безопасность которого мы больше не можем гарантировать даже в контролируемой военной среде».
Апеллируя к «совести», Anthropic сигнализирует о том, что это не переговоры о цене или функциях, а фундаментальное разногласие по вопросам этики автономных систем в ведении войны.
В таблице ниже показаны расхождения между требованиями Пентагона и текущей архитектурой безопасности Anthropic.
| Характеристика | Требование Пентагона (Без ограничений) | Стандарт Anthropic (Claude) |
|---|---|---|
| Операционная скорость | В реальном времени, без задержек фильтров | Проверки добавляют миллисекундные задержки |
| Фильтрация контента | Отключена для тактических сценариев | Активна для вредоносного/незаконного контента |
| Настройка модели | Строго ориентирована на цели миссии | Ориентирована на «Конституционные» принципы |
| Допустимый риск | Высокий (Стратегическая необходимость) | Низкий (Общественная и экзистенциальная безопасность) |
| Ответственность | Только участие человека в цикле | Встроенные технические ограничения |
За этим противостоянием внимательно следят другие гиганты ИИ, такие как OpenAI и Google. Если Anthropic потеряет контракт, это создаст вакуум, который может заполнить более уступчивая фирма. Однако это также создает прецедент того, как технологические компании могут сопротивляться давлению правительства с целью превращения их продуктов в оружие или «отключения безопасности».
Для более широкой технологической индустрии это подчеркивает растущую дилемму «двойного назначения». Программное обеспечение, разработанное для гражданской продуктивности, может быть перепрофилировано для кинетических военных действий. Когда разработчик этого ПО теряет контроль над тем, как думает модель, потенциал непредвиденных последствий — например, галлюцинация ИИ о причине для эскалации — возрастает в геометрической прогрессии.
По мере того как ИИ становится все более интегрированным в государственную и критически важную инфраструктуру, разработчикам и руководителям следует учитывать следующее:
Если Пентагон выполнит свою угрозу расторгнуть контракт, Anthropic столкнется со значительным дефицитом выручки, но ее репутация как компании, ставящей безопасность на первое место, скорее всего, укрепится. Тем временем Министерство обороны может заняться созданием собственных внутренних моделей или партнерством с более мерыми нишевыми стартапами в сфере оборонных технологий, которые готовы создавать модели без строгих защитных барьеров, характерных для коммерческих продуктов.
Это столкновение, вероятно, станет лишь первым из многих, поскольку грань между гражданскими технологиями и военным потенциалом продолжает стираться в эпоху искусственного интеллекта.



Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.
/ Создать бесплатный аккаунт