Пища для ума

Иллюзия нейтральности: почему протест против Google Gemini — это борьба за человеческую душу программного обеспечения

Сотрудники Google протестуют против использования ИИ Gemini в «бесчеловечных» военных операциях, подчеркивая социологический сдвиг в ответственности ИТ-специалистов.
Linda Zola
Linda Zola
28 апреля 2026 г.
Иллюзия нейтральности: почему протест против Google Gemini — это борьба за человеческую душу программного обеспечения

Современный технологический ландшафт обещает будущее бесшовной связи, где искусственный интеллект выступает в роли цифрового компаньона, облегчая нашу когнитивную нагрузку и сплетая разрозненные нити нашей повседневной рутины в связное, оптимизированное полотно человеческого прогресса. Нам говорят, что эти системы являются идеальными инструментами демократизации, способными решить проблему изменения климата, излечить болезни и способствовать развитию глобального сообщества благодаря чистой силе генеративного синтеза. Однако это видение остается хрупкой иллюзией, пока мы не признаем реальность: эти же инструменты алгоритмически привязаны к приоритетам тех, кто их финансирует, что неизбежно ведет к потере субъектности, когда «нейтральный» код перепрофилируется для смертоносных целей под видом обеспечения национальной безопасности. По мере того как мы углубляемся в 2026 год, трение между «кремниевыми обещаниями» и «стальной реальностью» войны достигло критической точки, воплотившись в открытом письме более 600 сотрудников Google генеральному директору Сундару Пичаи.

Сидя в переполненном кафе в прошлый вторник, я наблюдал за молодым человеком — вероятно, разработчиком, судя по обклеенному стикерами ноутбуку, — который сосредоточенно совершенствовал промпт для LLM. Он проектировал более эффективную логистическую цепочку для малого бизнеса. Для него код был обыденной утилитой, якорем, удерживающим его профессиональную жизнь посреди системного хаоса. Но если взглянуть на макроуровень, та самая архитектура, которую он использует, чтобы помочь местному флористу, может — при нескольких изменениях параметров в секретной обстановке — стать основой системы идентификации целей. Именно эта висцеральная тревога пронизала коридоры подразделений Google DeepMind и Cloud. Это письмо — не просто протест; это глубокий отказ от атомизации, которая позволяет работнику быть оторванным от конечных последствий своего труда.

Лингвистическое поле битвы: «бесчеловечный» против «законного»

С лингвистической точки зрения конфликт между персоналом Google и Пентагоном — это война определений. Когда сотрудники используют слово «бесчеловечный» для описания потенциального военного применения Gemini, они вступают в специфический вид дискурс-анализа. Они не просто используют морализаторское прилагательное; они пытаются определить границу того, что составляет «человеческую» технологию. Напротив, продвижение Пентагоном фразы «любое законное использование» — классический пример того, как язык может использоваться в качестве культурного анестетика. «Законный» — это системный термин, который меняется вместе с политическими ветрами и служит непрозрачным щитом от общественного контроля. Если закон разрешает массовую слежку или автономное наведение на цель, то такое поведение по определению является законным, независимо от его реального воздействия на гражданское население.

Исторически это семантическое перетягивание каната глубоко укоренено в эволюции военно-промышленно-цифрового комплекса. Язык здесь выступает как археологический памятник, где каждое новое контрактное условие раскрывает слои меняющейся динамики власти. Настаивая на «оперативной гибкости», Министерство обороны стремится превратить многогранный потенциал Gemini в единый смертоносный инструмент. Сотрудники, многие из которых являются экспертами в филологии и компьютерных науках, понимают: как только язык контракта расширяется, возможность обеспечения этических гарантий становится эфемерной. Парадоксально, но чем «гибче» язык, тем более жесткими и неизбежными становятся вредоносные приложения.

Архипелаг современной рабочей силы

С культурной точки зрения мы часто воспринимаем крупные технологические компании как монолиты, но они больше похожи на общество как архипелаг — тысячи людей, живущих в плотно упакованной цифровой экосистеме, но часто чувствующих себя полностью отделенными от центров принятия решений на своих «островах». Этот протест — редкий момент, когда отдельные острова преодолели разрыв, чтобы сформировать коллективный голос. Тот факт, что более 20 директоров и вице-президентов подписали это письмо, свидетельствует о глубоком структурном сдвиге в том, как технологические работники воспринимают свой габитус. Они больше не желают быть пассивными винтиками в машине; они заявляют о своем праве формировать этическую траекторию своих творений.

Эта коллективная акция напоминает мне разговор с анонимным старшим исследователем, который провел десятилетие в сфере ИИ. Он описал чувство «моральной травмы» — термин, обычно зарезервированный для солдат, — когда понял, что его работа над распознаванием изображений адаптируется для ведения войны с помощью дронов. На индивидуальном уровне исследователь почувствовал глубокое чувство предательства. Обыденное действие по обучению модели распознаванию «пешехода» внезапно обрело вес решения о жизни и смерти. Через эту призму протест — это не просто борьба за контракт; это механизм адаптации профессионалов, пытающихся примирить свою личную этику с системным давлением многомиллиардной оборонной сделки.

От Project Maven к парадоксу Gemini

За кулисами этого тренда скрывается пугающее воспоминание о 2018 годе. В письме прямо упоминается Project Maven — предыдущая попытка интегрировать ИИ Google в программу беспилотников Пентагона. Тот успешный бунт привел к созданию «Принципов ИИ Google», документа, призванного служить моральным компасом. Однако в контексте «текучей современности» — концепции, предложенной Зигмунтом Бауманом для описания нашего нынешнего состояния постоянных изменений и неопределенности, — даже самые надежные принципы могут казаться преходящими. De facto то, что считалось «красной линией» в 2018 году, теперь, в 2026 году, становится предметом переговоров, поскольку «экономика внимания» смещает свой фокус на национальную безопасность как на новый фронт получения прибыли.

Любопытно, что появление компании Anthropic в качестве антипода Google добавляет новый слой в это повествование. Когда генеральный директор Дарио Амодеи отклонил запрос Пентагона о неограниченном доступе, он разрушил миф о неизбежности тотального сотрудничества. Его заявление о том, что ИИ может в определенных случаях «подрывать, а не защищать демократические ценности», является тонким признанием врожденной хрупкости технологии. Как следствие, последующий запрет на инструменты Anthropic нынешней администрацией подчеркивает высокие ставки этой этической позиции. Иными словами, от «цифровой диеты из фастфуда» в виде легких государственных контрактов некоторые отказываются в пользу более содержательной, хотя и финансово рискованной, этической позиции.

Комната смеха: слежка и утрата гражданских свобод

Один из самых сильных страхов, выраженных в письме, — использование Gemini для массовой слежки и индивидуального профилирования. С социальной точки зрения мы все чаще живем в комнате смеха, где наши цифровые следы отражаются на нас через алгоритмы, которые предсказывают — а иногда и диктуют — наше поведение. В повседневной жизни это выглядит как персонализированная реклама или ленты социальных сетей. Но когда эти же инструменты применяются к «секретным рабочим нагрузкам», зеркала превращаются в одностороннее стекло. Отсутствие прозрачности означает, что нет никакого способа гарантировать, что ни в чем не повинные гражданские лица не подвергаются профилированию на основе фрагментарных данных.

По сути, сотрудники предостерегают от создания вездесущего государства слежки, работающего на тех самых инструментах, которые они создали, чтобы помогать людям находить информацию. Ирония ситуации не ускользает от них. В этом заключается парадокс современного города: мы проявляем свои меняющиеся социальные идентичности в публичных и частных цифровых пространствах, не подозревая, что сама сцена может записывать каждое наше движение для «смертоносных автономных» целей. «Лоскутное одеяло» нашей жизни — данные о местоположении, история поиска, личные сообщения — сшивается в профиль цели без нашего согласия или ведома.

Возвращение человеческого нарратива

В конечном счете, протест сотрудников Google — это попытка вернуть человеческий нарратив в мир, который становится все более автоматизированным. Они утверждают, что Google не должен «заниматься военным бизнесом» — это мнение кажется одновременно ностальгическим и радикальным в нынешнем геополитическом климате. Ностальгия в данном случае служит культурным анестетиком против тревоги перед неопределенным будущим; она отсылает к эпохе, когда мантра «Не будь злом» (Don't be evil) казалась искренним обещанием, а не маркетинговым пережитком.

Если смотреть шире, эта история — не просто об одной компании или одном контракте. Речь идет о системном напряжении между стремительным темпом технологических инноваций и медленной, вдумчивой работой человеческой этики. Это заставляет нас задуматься, готовы ли мы принять мир, где наши самые передовые инструменты используются для подрыва тех самых гражданских свобод, которые они должны были расширить. За кулисами переговорщики в Пентагоне и руководители в Google взвешивают оперативную гибкость против прав человека. Но на местах работники напоминают нам, что код — это никогда не просто код, это отражение наших коллективных ценностей.

Пища для размышлений

Навигация на этом сложном перекрестке технологий и морали может натолкнуть нас на следующие размышления о нашей собственной цифровой жизни:

  • Как часто мы задумываемся об «археологии» приложений, которыми пользуемся? Кто их финансировал и каковы были первоначальные намерения их разработчиков?
  • Где мы проводим свои «красные линии» в профессиональной деятельности? Осознаем ли мы, как наши рутинные задачи могут способствовать созданию более крупных, потенциально вредоносных систем?
  • Можем ли мы вернуть себе чувство субъектности в «экономике внимания», требуя большей прозрачности от платформ, хранящих наши самые личные данные?
  • Если рассматривать наши цифровые взаимодействия как «лоскутное одеяло» нашей идентичности, то кого бы мы хотели видеть с иголкой в руках?

Закрывая эту вкладку и возвращаясь к своим делам, возможно, уделите мгновение тому, чтобы заметить повсеместное присутствие ИИ вокруг вас. Поставьте под сомнение глубоко укоренившуюся норму о том, что технологический прогресс всегда должен идти в ущерб этической ясности. Иногда самым глубоким актом прогресса является смелость сказать «нет».

Источники:

  • Bauman, Z. (2000). Liquid Modernity. Cambridge: Polity Press.
  • Принципы ИИ Google (Официальный внутренний документ, обновлено в 2025 г.).
  • Открытое письмо сотрудников Google Сундару Пичаи (апрель 2026 г.).
  • Заявление Дарио Амодеи, генерального директора Anthropic, относительно переговоров с Министерством обороны (март 2026 г.).
  • Министерство обороны США, Директива 3000.09: Автономия в системах вооружения (пересмотрено в 2024 г.).
bg
bg
bg

До встречи на другой стороне.

Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.

/ Создать бесплатный аккаунт