Кибербезопасность

Великое разъединение: почему ИИ не смог демократизировать высокоуровневую киберпреступность

Глубокий анализ причин, по которым инструменты ИИ разочаровывают киберпреступников, и того, как CISO могут использовать этот дефицит экспертных знаний для укрепления корпоративной архитектуры.
Великое разъединение: почему ИИ не смог демократизировать высокоуровневую киберпреступность

Ранее в индустрии кибербезопасности преобладало коллективное предположение, что большие языковые модели (LLM) снизят порог входа для проведения сложных кибератак до незначительного уровня. Сейчас, когда мы перешли в середину 2026 года, эмпирические данные Эдинбургского университета и телеметрия подпольных форумов свидетельствуют о том, что барьер не исчез; он лишь сместился от ручного запоминания синтаксиса к сложным требованиям в области промпт-инжиниринга и ресурсоемкого джейлбрейка. Чтобы оценить масштаб этого разрыва, мы должны заглянуть за сенсационные заголовки 2023 года и проанализировать трения, парализующие цифровое подполье в настоящее время.

Нарратив о «суперхакере на базе ИИ» столкнулся с суровой реальностью: дефицит экспертных знаний стал негласным союзником обороны. Пока сообщество безопасности готовилось к волне автономного вредоносного ПО, злоумышленники обнаружили, что борются с теми же галлюцинациями, защитными фильтрами и логическими ошибками, которые досаждают легитимным корпоративным пользователям. Для CISO это не повод для самоуспокоения, а сигнал к перераспределению ресурсов с «ИИ-паники» на архитектурную устойчивость.

Провал фронтирных моделей в даркнете

Первоначальный всплеск энтузиазма на подпольных форумах по поводу таких инструментов, как WormGPT и FraudGPT, в значительной степени испарился, сменившись циничным осознанием того, что эти продукты зачастую были не более чем скриптами-оболочками вокруг старых и слабых моделей с открытым исходным кодом. Анализ более 100 миллионов сообщений на форумах, проведенный Эдинбургским университетом, подчеркивает критический переход в мышлении противника: они поняли, что специализированный «вредоносный» ИИ значительно уступает фронтирным моделям, разработанным Anthropic или OpenAI.

На практике это означает, что наиболее способные злоумышленники не используют заказной криминальный ИИ; они пытаются взломать легитимную многомиллиардную инфраструктуру. Однако защитные барьеры, интегрированные в эти основные модели, оказались на удивление устойчивыми. Киберпреступники обнаруживают, что к тому времени, когда им удается успешно взломать модель для создания функциональной полезной нагрузки эксплойта, они могли бы написать код вручную в два раза быстрее. Это трение во времени реализации эксплойта является структурной победой защитников. Когда противник вынужден переходить на старые, менее качественные модели с открытым исходным кодом, он сталкивается со значительным потолком производительности. Этим устаревшим компонентам не хватает способностей к рассуждению, необходимых для навигации в сложных сетевых архитектурах или обнаружения новых уязвимостей в современных стеках программного обеспечения.

Реальность масштабируемой посредственности

Хотя ИИ не смог создать новый класс элитных хакеров, он, несомненно, довел до совершенства искусство масштабируемой посредственности. Исследование подтверждает, что основное влияние ИИ на ландшафт угроз сосредоточено в областях, где объем важнее точности. Создание ботов для социальных сетей, мошенничество с SEO и автоматизированные романтические аферы пережили массовый подъем, поскольку эти задачи не требуют от ИИ понимания внутренней логики системы; им требуется только генерация правдоподобного человеческого языка.

Для ясности: мы наблюдаем расхождение моделей угроз. Угрозы «высшего уровня» — государственные субъекты и продвинутые группы вымогателей — по-прежнему полагаются на человеческую изобретательность для горизонтального перемещения и поиска уязвимостей нулевого дня. Между тем, угроза «нижнего уровня» превратилась в высокообъемную шумовую машину. Логика смещается к осознанию того, что ИИ — это не скальпель для точных взломов, а мегафон для социальной инженерии. Этот сдвиг требует изменения нашего взгляда на периметр. Если каждое входящее сообщение потенциально является приманкой, созданной ИИ, концепция «доверенного» электронного письма или сообщения официально мертва.

Архитектура важнее периметра: единственная стратегия выживания

Для опытного специалиста по безопасности исследование Эдинбургского университета подтверждает фундаментальную истину: внутренняя сегментация — единственная жизнеспособная стратегия выживания. Если мы признаем, что ИИ позволяет даже низкоквалифицированным злоумышленникам массово создавать убедительные фишинговые приманки, мы должны исходить из того, что первоначальный взлом является статистической неизбежностью. DMZ — это не зона общего пользования, а индивидуальная одиночная камера.

Что именно необходимо пересмотреть, так это радиус поражения при компрометации одной учетной записи. Поскольку ИИ-ассистенты для написания кода полезны в основном тем, кто уже обладает навыками, реальный риск исходит от квалифицированного злоумышленника, использующего ИИ для ускорения фазы разведки, когда он уже находится внутри сети. Де-факто ИИ служит множителем эффективности для эксперта, а не мостом для дилетанта. Следовательно, наша защитная архитектура должна быть сосредоточена на том, чтобы сделать горизонтальное перемещение максимально затратным с вычислительной и логической точек зрения. Микросегментация и строго соблюдаемая архитектура нулевого доверия (Zero Trust) больше не являются «лучшими практиками»; это базовый уровень для непрерывности работы.

Асимметрия полезности LLM

Одним из наиболее глубоких выводов недавних исследований является асимметрия доступа между атакующими и защитниками. В то время как хакеры с трудом пытаются обойти фильтры безопасности для создания вредоносного кода, команды защиты используют те же самые модели — без фильтров — для аудита внутренней кодовой базы, обобщения огромных логов из центров управления безопасностью (SOC) и автоматизации управления патчами.

Раньше на поиск ошибки 27-летней давности могли уйти недели, а на ее исправление — месяцы. Теперь защитник с LLM корпоративного уровня может идентифицировать ту же устаревшую уязвимость за часы и составить план по ее устранению. Исследование предполагает, что впервые в истории технологическое преимущество может склониться в сторону защитника, при условии, что у него достаточно архитектурной зрелости для использования этих инструментов. Дефицит экспертных знаний вредит атакующему больше, чем защитнику, потому что защитник работает в рамках целевого, отфильтрованного по безопасности сценария использования технологии.

План действий: стратегическая дорожная карта на 6–12 месяцев

Чтобы воспользоваться этим временным окном разочарования атакующих, CISO и CTO должны предпринять решительные действия по укреплению своей внутренней среды. Цель состоит не в том, чтобы предотвратить попадание созданной ИИ приманки к сотруднику, а в том, чтобы гарантировать, что последующий взлом не сможет перерасти в катастрофу.

  • Фаза 1: Укрепление идентификации и доступа (0–3 месяца)
    • Отказ от MFA на основе SMS в пользу аппаратных ключей безопасности (FIDO2) или надежных реализаций passkey для нейтрализации фишинга на базе ИИ.
    • Проведение комплексного аудита всех сервисных учетных записей, которые часто становятся предпочтительными целями для горизонтального перемещения после первоначального взлома с помощью ИИ.
  • Фаза 2: Микросегментация и ограничение радиуса поражения (3–6 месяцев)
    • Внедрение гранулярной сегментации сети. Относитесь к каждому отделу и даже к каждому критически важному приложению как к изолированному острову.
    • Развертывание автоматизированных «канареечных» токенов (canary tokens) по всей сети. Поскольку разведка с помощью ИИ имеет тенденцию быть шумной, эти приманки могут обеспечить раннее предупреждение о вторжении.
  • Фаза 3: Интеграция защитного ИИ (6–12 месяцев)
    • Интеграция LLM в конвейер CI/CD для выполнения проверки безопасности (линтинга) всего нового кода в реальном времени.
    • Оснащение SOC инструментами оркестрации с поддержкой ИИ (SOAR) для фильтрации высокообъемного шума, создаваемого автоматизированными ИИ-мошенниками, что позволит аналитикам сосредоточиться на высокоточных угрозах.

Заключение

Выводы Эдинбургского университета служат необходимым холодным душем для индустрии, опьяненной хайпом вокруг ИИ. Реальность 2026 года такова, что «автономный противник» остается скорее маркетинговой страшилкой, чем функциональной реальностью для среднестатистического киберпреступника. Однако это разочарование со стороны атакующего не будет длиться вечно. По мере того как модели с открытым исходным кодом будут догонять сегодняшние фронтирные модели, порог входа в конечном итоге снизится.

Выживание зависит от архитектуры и скорости. Мы должны использовать этот период стагнации атакующих, чтобы демонтировать наши несегментированные устаревшие системы и заменить их устойчивыми, гранулярными архитектурами. Цель не в том, чтобы предотвратить все взломы, а в том, чтобы гарантировать, что компрометация не превратится в катастрофу. В шахматной партии кибербезопасности ИИ не заменил игроков; он просто изменил скорость часов.

Источники:

  • University of Edinburgh: Analysis of Cybercriminal LLM Usage on Underground Forums (CrimeBB Database).
  • Cambridge Cybercrime Centre: Longitudinal Analysis of Underground Market Dynamics.
  • OpenAI/Anthropic: Safety Transparency Reports 2025-2026.
  • CISA: Advisory on AI-Driven Social Engineering and Scaled Automation.

Отказ от ответственности: Данная статья предназначена исключительно для информационных и образовательных целей. Она не является юридической или профессиональной консультацией и не заменяет необходимость проведения комплексного профессионального аудита кибербезопасности или специализированных услуг по реагированию на инциденты, исходя из конкретных потребностей вашей организации.

bg
bg
bg

До встречи на другой стороне.

Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.

/ Создать бесплатный аккаунт