Отношения между Кремниевой долиной и военными всегда напоминали ходьбу по канату, но для OpenAI этот канат, похоже, окончательно оборвался. По состоянию на март 2026 года массовое движение, получившее название «QuitGPT», превратилось из нишевого хэштега в социальных сетях в серьезную коммерческую проблему для ведущей мировой лаборатории ИИ. Сообщается, что более 1,5 миллиона пользователей отменили свои подписки Plus или удалили свои аккаунты, и компания столкнулась с самым значительным кризисом в сфере связей с общественностью со времен кратковременного увольнения Сэма Альтмана в конце 2023 года.
В центре скандала — сообщения о многомиллиардной сделке по интеграции флагманских моделей OpenAI в секретные сети Министерства обороны США. В то время как OpenAI утверждает, что партнерство сосредоточено на логистике и кибербезопасности, общественное восприятие «ChatGPT в оперативном штабе» вызвало бурю этических споров.
Трения начались в начале 2024 года, когда OpenAI незаметно удалила из своей политики использования формулировку, прямо запрещающую применение технологий в «военных целях и ведении боевых действий». В то время компания утверждала, что изменения необходимы для обеспечения сценариев «двойного назначения», таких как помощь ветеранам в сфере здравоохранения или улучшение военной логистики. Однако сделка 2026 года представляет собой гораздо более глубокую интеграцию.
Согласно отчетам, циркулирующим в технологической индустрии, новое соглашение предполагает развертывание специализированных версий GPT-5 (и ее преемников) в рамках структуры «Joint Warfighting Cloud Capability» (JWCC). Речь идет не просто о написании электронных писем; это включает в себя анализ огромных объемов разведывательных данных и помощь в принятии стратегических решений. Для многих давних пользователей, которые рассматривали OpenAI как инструмент для демократичного творчества, этот сдвиг в сторону «военно-промышленного комплекса» ощущается как предательство первоначального устава компании.
Движение, организованное преимущественно через портал quitgpt.org, заявляет о достижении критической массы. Организаторы утверждают, что ИИ должен оставаться нейтральной гражданской технологией. Их платформа построена на принципе, согласно которому «демократизация интеллекта» несовместима с разработкой инструментов для государственного насилия.
«Мы наблюдаем фундаментальный сдвиг в настроениях пользователей», — говорит один из цифровых организаторов движения. «Люди осознают, что их ежемесячные абонентские платы фактически субсидируют разработку технологий, которые в конечном итоге будут использоваться в кинетической войне. Они голосуют своим кошельком».
Помимо 1,5 миллиона зарегистрированных уходов, движение набрало обороты среди академических исследователей и разработчиков программного обеспечения, которые все чаще выбирают альтернативы с открытым исходным кодом, такие как серия Llama от Meta или Mistral, ссылаясь на опасения по поводу того, как используются их данные и циклы обратной связи.
Руководство OpenAI не осталось в стороне. В недавней внутренней записке руководство заявило, что предоставление военным США самого передового ИИ является вопросом национальной безопасности и сохранения демократии. Они утверждают, что если «западные» компании в сфере ИИ не будут сотрудничать со своими правительствами, авторитарные режимы получат решающее технологическое преимущество.
Чтобы понять сложность ситуации, рассмотрим следующее сравнение двух преобладающих философий в индустрии ИИ сегодня:
| Характеристика | Модель «Национальных интересов» (OpenAI) | Модель «Нейтральная/Открытая» (QuitGPT/Open-Source) |
|---|---|---|
| Основная цель | Обеспечение демократического технологического превосходства. | Обеспечение того, чтобы ИИ оставался глобальным гражданским ресурсом. |
| Отношение к военным | Сотрудничество; упор на логистику и оборону. | Строгое неучастие в военных контрактах. |
| Управление данными | Централизованное и соответствующее государственной безопасности. | Децентрализованное или строго частное/локальное. |
| Источники финансирования | Частный венчурный капитал + государственные контракты. | Сообщество, академические круги или диверсифицированные корпорации. |
Масла в огонь подливает видимый контраст с Anthropic. В то время как OpenAI сблизилась с Пентагоном, Anthropic исторически позиционировала себя как компания, ориентированная прежде всего на безопасность («safety-first»). Однако даже Anthropic столкнулась с критикой из-за собственных обсуждений с оборонными ведомствами, что привело к росту скептицизма в отношении всей экосистемы «Big AI». Это создало вакуум, который спешат заполнить проекты с открытым исходным кодом, обещая пользователям, что их модели никогда не будут проданы тем, кто больше заплатит в военной сфере.
Если вы разделяете взгляды движения «QuitGPT» или просто обеспокоены этической траекторией ваших инструментов ИИ, есть несколько практических шагов, которые вы можете предпринять для перевода своего рабочего процесса:
Движение «Cancel ChatGPT» — это лакмусовая бумажка для индустрии ИИ. Оно ставит сложный вопрос: может ли компания быть одновременно глобальным потребительским брендом и основным оборонным подрядчиком? Поскольку границы между программным обеспечением и вооружением продолжают стираться, выбор для пользователей теперь заключается не только в том, какая модель умнее, но и в том, какая компания соответствует их личной этике.
Заставит ли этот бойкот OpenAI сменить курс, пока неизвестно. Однако масштабы всплеска «QuitGPT» свидетельствуют о том, что эра «роста любой ценой» в сфере ИИ, возможно, встретила первое реальное сопротивление со стороны тех самых людей, которые помогли построить ее успех: пользователей.



Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.
/ Создать бесплатный аккаунт