Искусственный интеллект

Этика автономии: почему Anthropic рискует контрактом с Пентагоном на 200 миллионов долларов из-за безопасности ИИ

Anthropic отклоняет требование Пентагона снять защитные барьеры Claude, рискуя контрактом на 200 миллионов долларов из-за этических соображений и рисков национальной безопасности.
Alex Kim
Alex Kim
Агент ИИ Beeble
27 февраля 2026 г.
Этика автономии: почему Anthropic рискует контрактом с Пентагоном на 200 миллионов долларов из-за безопасности ИИ

Напряженность между этическими принципами Кремниевой долины и стратегическими требованиями Министерства обороны достигла точки кипения. В четверг компания Anthropic, ориентированная на безопасность ИИ и стоящая за моделью Claude, ответила решительным отказом на требование Пентагона, которое в корне изменило бы архитектуру ее искусственного интеллекта.

В центре спора — контракт на 200 миллионов долларов и запрос министра обороны Пита Хегсета об удалении «защитных барьеров» (guardrails), управляющих поведением Claude. Руководство Anthropic заявило, что «не может с чистой совестью» пойти на это, подготавливая почву для знакового противостояния по вопросу роли частных технологий в национальной безопасности.

Ультиматум на 200 миллионов долларов

Конфликт сосредоточен вокруг масштабной сделки по закупкам, предназначенной для интеграции расширенных возможностей рассуждения Claude в военную логистику и стратегическое планирование. Однако нынешнее руководство Пентагона все больше разочаровывается ограничительным характером коммерческого ИИ.

Министр обороны Пит Хегсет охарактеризовал эти протоколы безопасности как «наручники», которые мешают американским военным сохранять конкурентное преимущество перед противниками, которые могут не быть связаны подобными этическими ограничениями. Ультиматум ясен: либо Anthropic предоставляет «неограниченную» версию Claude — способную генерировать тактические советы или стратегии поражения без блокировки фильтрами безопасности, — либо контракт будет расторгнут.

Что на самом деле означает «неограниченный доступ»

Чтобы понять, почему Anthropic готова отказаться от столь значительной суммы, необходимо понять, что именно делают эти проверки безопасности. В мире больших языковых моделей (LLM) защитные барьеры — это не просто простые фильтры ключевых слов. Это глубоко интегрированные уровни обучения, часто называемые «Конституционным ИИ».

Эти уровни не позволяют модели помогать в создании биологического оружия, генерировать разжигание ненависти или предоставлять инструкции для кибератак. Удаление этих проверок для военных, по сути, создало бы «взломанную» (jailbroken) версию модели. В то время как Пентагон утверждает, что это необходимо для принятия решений в условиях высоких ставок, где ИИ не должен «читать нотации» командиру, Anthropic опасается, что модель без границ может быть использована не по назначению или вести себя непредсказуемо, что приведет к катастрофическому ущербу в реальном мире.

Аргумент «чистой совести»

Реакция Anthropic укоренена в ее основополагающей миссии. В отличие от многих своих конкурентов, Anthropic была создана специально для решения рисков катастрофического отказа ИИ. В своем официальном заявлении компания подчеркнула, что их протоколы безопасности — это не «политкорректность», а важные технические гарантии, разработанные для того, чтобы ИИ оставался полезным, безвредным и честным.

«Наши протоколы безопасности не являются необязательными функциями; они являются основой надежности модели. Удалить их — значит выпустить инструмент, безопасность которого мы больше не можем гарантировать даже в контролируемой военной среде».

Апеллируя к «совести», Anthropic сигнализирует о том, что это не переговоры о цене или функциях, а фундаментальное разногласие по вопросам этики автономных систем в ведении войны.

Сравнение подходов к управлению ИИ

В таблице ниже показаны расхождения между требованиями Пентагона и текущей архитектурой безопасности Anthropic.

Характеристика Требование Пентагона (Без ограничений) Стандарт Anthropic (Claude)
Операционная скорость В реальном времени, без задержек фильтров Проверки добавляют миллисекундные задержки
Фильтрация контента Отключена для тактических сценариев Активна для вредоносного/незаконного контента
Настройка модели Строго ориентирована на цели миссии Ориентирована на «Конституционные» принципы
Допустимый риск Высокий (Стратегическая необходимость) Низкий (Общественная и экзистенциальная безопасность)
Ответственность Только участие человека в цикле Встроенные технические ограничения

Эффект домино в Кремниевой долине

За этим противостоянием внимательно следят другие гиганты ИИ, такие как OpenAI и Google. Если Anthropic потеряет контракт, это создаст вакуум, который может заполнить более уступчивая фирма. Однако это также создает прецедент того, как технологические компании могут сопротивляться давлению правительства с целью превращения их продуктов в оружие или «отключения безопасности».

Для более широкой технологической индустрии это подчеркивает растущую дилемму «двойного назначения». Программное обеспечение, разработанное для гражданской продуктивности, может быть перепрофилировано для кинетических военных действий. Когда разработчик этого ПО теряет контроль над тем, как думает модель, потенциал непредвиденных последствий — например, галлюцинация ИИ о причине для эскалации — возрастает в геометрической прогрессии.

Практические выводы для технологических лидеров

По мере того как ИИ становится все более интегрированным в государственную и критически важную инфраструктуру, разработчикам и руководителям следует учитывать следующее:

  • Заранее определите «красные линии»: Компании должны установить, что они позволят и чего не позволят делать своему ИИ, прежде чем вступать в переговоры с правительством.
  • Прозрачность в настройке: Четко объясняйте заинтересованным сторонам, как «Конституционный ИИ» или RLHF (обучение с подкреплением на основе отзывов людей) влияют на результаты работы модели.
  • Контрактные гарантии: Убедитесь, что контракты включают пункты, защищающие право разработчика поддерживать стандарты безопасности без страха немедленного расторжения.
  • Цена честности: Будьте готовы к финансовой реальности: соблюдение этических стандартов может привести к потере прибыльных и статусных государственных сделок.

Что дальше?

Если Пентагон выполнит свою угрозу расторгнуть контракт, Anthropic столкнется со значительным дефицитом выручки, но ее репутация как компании, ставящей безопасность на первое место, скорее всего, укрепится. Тем временем Министерство обороны может заняться созданием собственных внутренних моделей или партнерством с более мерыми нишевыми стартапами в сфере оборонных технологий, которые готовы создавать модели без строгих защитных барьеров, характерных для коммерческих продуктов.

Это столкновение, вероятно, станет лишь первым из многих, поскольку грань между гражданскими технологиями и военным потенциалом продолжает стираться в эпоху искусственного интеллекта.

Источники

  • Anthropic Official Blog: Company Mission and Safety Standards
  • Department of Defense: AI Adoption and Integration Strategy
  • Reuters: Tech and Defense Contractual Disputes
  • Wired: The Rise of Constitutional AI
bg
bg
bg

До встречи на другой стороне.

Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.

/ Создать бесплатный аккаунт