Новости отрасли

От кода к химикатам: почему гиганты ИИ нанимают специалистов по оружию

Anthropic и OpenAI нанимают экспертов по химикатам и взрывчатым веществам для предотвращения злоупотреблений ИИ. Исследуйте мир безопасности ИИ и рисков CBRN в 2026 году.
От кода к химикатам: почему гиганты ИИ нанимают специалистов по оружию

Может ли чат-бот стать катализатором физической катастрофы? Этот вопрос звучал бы как сюжет технотриллера всего пять лет назад. Однако в 2026 году архитекторы нашего цифрового будущего относятся к ответу на него со всей серьезностью. Anthropic и OpenAI, титаны эры генеративного ИИ, больше не ищут только инженеров-программистов и специалистов по данным. Теперь они активно нанимают специалистов по химическому оружию, взрывчатым веществам и биологическим угрозам.

Этот сдвиг знаменует собой поворотный момент в эволюции технологической индустрии. Мы оставляем позади эпоху «двигайся быстро и ломай всё на своем пути» — где ломались в основном устаревшие бизнес-модели — и переходим в опасную реальность, где под угрозой могут оказаться общественная безопасность и международная стабильность. Организации все чаще ведут себя как живые организмы, развивая иммунные системы для защиты себя и общества от непредвиденных последствий собственного выдающегося интеллекта.

Новые горизонты Red Teaming

Anthropic недавно просигнализировала об этом сдвиге, опубликовав резонансную вакансию эксперта по политике в области химического оружия и взрывчатых веществ. Роль, конечно, не в создании оружия; она заключается в предотвращении «катастрофического злоупотребления» моделями Claude. Иными словами, они нанимают людей, которые знают, как собрать бомбу, чтобы те научили ИИ, почему он никогда не должен помогать в этом кому-то другому.

В начале моей карьеры в технологических стартапах самой большой проблемой «безопасности» была утечка базы данных или баг в API. Я помню лихорадочную энергию тех ночных сессий под холодную пиццу, когда ставки казались высокими, но физический мир оставался нетронутым. Поэтому сегодняшние описания вакансий из Сан-Франциско кажутся сюрреалистичной корпоративной трансформацией. Человек, нанятый на эту роль, будет проектировать и контролировать барьеры (guardrails) того, как модели ИИ реагируют на запросы о чувствительных химических соединениях. Это «группа быстрого реагирования» для цифрового пожара нового типа.

Почему именно сейчас? Риск CBRN

Аббревиатура, которую часто шепчут в коридорах OpenAI и Anthropic — это CBRN: химическая, биологическая, радиологическая и ядерная угроза (Chemical, Biological, Radiological, and Nuclear). По мере того как передовые модели становятся более способными, они обретают глубокое понимание научной литературы. Хотя это инновационно для разработки лекарств и материаловедения, это столь же опасно, если модель может синтезировать инструкции для нервно-паралитического вещества или кустарного взрывного устройства.

Любопытно, что риск заключается не только в том, что ИИ знает «рецепт». Дело в том, что ИИ может выступать в роли высокоэффективного менеджера проектов для злоумышленника. Он может устранять неполадки в химических реакциях, предлагать альтернативные прекурсоры в обход законодательных ограничений и давать пошаговые инструкции по настройке оборудования. В отличие от статического поисковика, интерактивный ИИ может буквально вести пользователя за руку через опасный процесс. Вот почему «строительные блоки» этих моделей должны быть пропитаны безопасностью с самого основания.

Структура готовности OpenAI

OpenAI пошла по аналогичному пути со своей командой «Preparedness» (Готовность). Этой группе поручено оценивать передовые модели на предмет «катастрофических» рисков. Они разработали сложную систему оценки, чтобы отслеживать, насколько близко модель подходит к возможности содействия биологической или химической атаке. Если модель пересекает определенный порог возможностей без адекватных мер защиты, структура предписывает запрет на её публичный выпуск.

Тем не менее, вызов остается огромным. Безопасность ИИ — это не функция из разряда «настроил и забыл». Это путь, а не пункт назначения. По мере развития модели находят новые способы обхода старых фильтров — феномен, известный как «джейлбрейк» (jailbreaking). Нанимая экспертов, посвятивших карьеру работе в лабораториях и на объектах строгого режима, ИИ-компании пытаются быть на шаг впереди творческого злого умысла, который часто сопровождает технологические прорывы.

Этическая экосистема

Мы должны рассматривать технологическую отрасль как экосистему. Когда появляется новый мощный хищник — или, в данном случае, преобразующий инструмент — вся среда должна адаптироваться для сохранения равновесия. Найм специалистов по оружию — признак зрелости индустрии. Это признание того, что власть, которой обладают эти компании, слишком велика для подхода «поживем — увидим».

За время управления удаленными командами в разных часовых поясах я усвоил, что самыми успешными проектами были не те, где работали самые быстрые разработчики, а те, где было лучшее предвидение. Нужно предугадывать, где возникнет трение. В контексте ИИ это трение возникает на пересечении цифрового интеллекта и физического вреда.

Практические выводы для эпохи ИИ

Хотя большинство из нас не строит LLM и не работает с химическими прекурсорами, профессионализация безопасности ИИ имеет реальные последствия для того, как мы взаимодействуем с технологиями. Вот что следует иметь в виду:

  • Ожидайте большего сопротивления: По мере усложнения защитных барьеров вы можете столкнуться с тем, что модели ИИ будут чаще «отказываться» обсуждать чувствительные научные темы. Это не баг, а фича.
  • Соблюдение нормативных требований: Если вы разработчик, использующий эти API, будьте в курсе «Политики ответственного масштабирования» провайдеров. Ваши собственные приложения могут подлежать аудиту безопасности.
  • Ценность предметной экспертизы: Этот тренд доказывает, что «мягких» навыков в ИТ недостаточно. Самые ценные люди в техсфере сейчас — те, кто устраняет разрыв между кремнием и физическими науками.

Глядя на оставшуюся часть 2026 года, сотрудничество между физиками-ядерщиками, химиками и программистами, вероятно, станет стандартом, а не исключением. Это странная, немного пугающая, но в конечном итоге необходимая эволюция в нашем стремлении создавать инструменты, которые настолько же безопасны, насколько и умны.

bg
bg
bg

До встречи на другой стороне.

Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.

/ Создать бесплатный аккаунт