Испания поручила прокурорам начать расследование в отношении крупнейших платформ социальных сетей X (бывший Twitter), Meta и TikTok в связи с обвинениями в распространении через их сервисы материалов с сексуальным насилием над детьми, созданных искусственным интеллектом. Это знаменует собой значительную эскалацию усилий Европы по привлечению технологических компаний к ответственности за вредоносный и незаконный контент, появляющийся на их платформах.
Этот шаг предпринят в то время, когда регулирующие органы по всему Европейскому союзу усиливают контроль за тем, как технологические компании модерируют контент, особенно в связи с тем, что искусственный интеллект упрощает создание реалистичных, но синтетических изображений и видео. Решение Испании сигнализирует о том, что правительства больше не готовы ждать, пока платформы займутся саморегулированием в вопросах защиты детей в интернете.
Искусственный интеллект изменил ландшафт угроз безопасности в интернете. Современные инструменты генеративного ИИ могут создавать фотореалистичные изображения и видео, которые становится все труднее отличить от подлинного контента. Хотя эти технологии находят законное применение в сфере развлечений, дизайна и образования, они также открыли тревожный новый путь для создания материалов с сексуальным насилием над детьми без прямого причинения вреда ребенку в процессе производства.
Однако эксперты и правоохранительные органы подчеркивают, что такие материалы по-прежнему наносят глубокий вред. Они нормализуют сексуализацию детей, могут использоваться для вовлечения реальных жертв (груминга) и затрудняют следователям выявление и спасение настоящих жертв, переполняя системы обнаружения синтетическим контентом. Существование таких материалов, независимо от их происхождения, поддерживает рынок эксплуатации детей.
Испанское расследование сосредоточено на том, имеют ли X, Meta и TikTok адекватные меры защиты для обнаружения и удаления этого контента, созданного ИИ, и достаточно ли оперативно они реагировали на сообщения о появлении таких материалов на своих платформах.
Действия Испании происходят в контексте Закона Европейского союза о цифровых услугах (DSA), который вступил в полную силу в 2024 году. Это знаковое законодательство требует от онлайн-платформ брать на себя ответственность за незаконный контент и внедрять надежные системы для выявления, удаления и предотвращения распространения вредоносных материалов.
Согласно DSA, на очень крупные онлайн-платформы — те, у которых более 45 миллионов активных пользователей в месяц в ЕС — налагаются особые обязательства. Они должны проводить оценку рисков, внедрять меры по их снижению и проходить независимый аудит. X, Meta (управляющая Facebook, Instagram и WhatsApp) и TikTok подпадают под эту категорию.
Несоблюдение требований DSA может привести к штрафам в размере до шести процентов от глобальной годовой выручки компании. Для Meta, которая отчиталась о выручке более 130 миллиардов долларов за 2024 год, это может обернуться миллиардными штрафами. Ставки огромны как в финансовом, так и в репутационном плане.
Все три компании, ставшие объектами расследования Испании, публично обязались бороться с материалами о сексуальном насилием над детьми, хотя их подходы и результаты различаются.
Meta вложила значительные средства в технологии обнаружения, используя комбинацию инструментов сканирования на базе ИИ и модераторов-людей. Компания ежегодно сообщает о миллионах единиц контента с эксплуатацией детей в Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC). Однако критики утверждают, что системы Meta по-прежнему допускают пропуск слишком большого количества вредоносного контента, особенно в ее зашифрованных сервисах обмена сообщениями.
X под руководством Илона Маска столкнулась с повышенным вниманием к модерации контента. В 2023 году платформа резко сократила свои команды по доверию и безопасности, что вызвало обеспокоенность по поводу ее способности выявлять и удалять незаконный контент. Хотя X утверждает, что придерживается политики нулевой терпимости к материалам о сексуальном насилие над детьми, несколько исследовательских организаций задокументировали случаи, когда контент, на который были поданы жалобы, оставался доступным в течение длительного времени.
TikTok подчеркивает сочетание автоматизированного обнаружения и человеческой проверки, а также партнерство с организациями по безопасности детей. Платформа также внедрила функции, предназначенные для защиты молодых пользователей, такие как настройки конфиденциальности по умолчанию для учетных записей, принадлежащих несовершеннолетним. Тем не менее, огромный объем ежедневно загружаемого контента — сотни миллионов видео — создает колоссальные трудности для любой системы модерации.
Расследование Испании отражает более широкий сдвиг в подходе правительств к ответственности платформ. Вместо того чтобы рассматривать компании социальных сетей как нейтральных посредников, регуляторы все чаще видят в них издателей с редакционной ответственностью за контент, который они размещают и продвигают.
Это дело может создать важные прецеденты по нескольким причинам. Во-первых, оно конкретно касается контента, созданного ИИ — области, где правила и практика правоприменения все еще формируются. Во-вторых, оно демонстрирует, что отдельные государства-члены ЕС готовы проводить расследования независимо, даже когда Европейская комиссия осуществляет свои собственные действия по обеспечению соблюдения DSA.
Расследование также подчеркивает напряженность в самой основе модерации контента: баланс между конфиденциальностью пользователей и безопасностью. Сквозное шифрование, которое защищает коммуникации пользователей от слежки, также затрудняет обнаружение незаконного контента. Поиск решений, сохраняющих конфиденциальность и предотвращающих злоупотребления, остается одной из самых сложных проблем в технологической политике.
Пока платформы и регуляторы работают над этими вопросами, родители и пользователи могут предпринять несколько шагов для повышения безопасности в интернете:
Включите встроенные функции безопасности. Все три платформы предлагают родительский контроль, ограниченные режимы и фильтры контента. Найдите время, чтобы правильно настроить эти параметры для юных пользователей.
Поддерживайте открытое общение. Поговорите с детьми о том, с чем они сталкиваются в интернете, и создайте атмосферу, в которой они будут чувствовать себя комфортно, сообщая о подозрительном контенте или взаимодействиях.
Немедленно сообщайте о подозрительном контенте. Все основные платформы имеют механизмы подачи жалоб. Используйте их. Жалобы помогают обучать системы обнаружения и оповещают модераторов о проблемном контенте.
Будьте в курсе политики платформ. Компании регулярно обновляют свои функции безопасности и правила в отношении контента. Изучение этих изменений поможет вам понять, какие меры защиты действуют.
Рассмотрите возможность использования сторонних инструментов мониторинга. Различные приложения родительского контроля могут обеспечить дополнительные уровни защиты и видимости того, как дети используют социальные сети.
Теперь испанские прокуроры будут собирать доказательства, чтобы определить, нарушили ли платформы испанское законодательство или правила ЕС. Этот процесс может занять месяцы или даже годы. Если следователи обнаружат нарушения, компаниям могут грозить существенные штрафы, предписания изменить свою практику или и то, и другое.
Между тем другие европейские страны внимательно следят за ситуацией. Аналогичные расследования могут начаться и в других местах, если расследование Испании выявит системные сбои. Европейская комиссия, на которую возложена основная ответственность за соблюдение DSA в отношении очень крупных платформ, также может усилить контроль на основе выводов Испании.
Для технологической отрасли в целом это дело подчеркивает, что к контенту, созданному ИИ, будут относиться так же серьезно, как и к традиционным незаконным материалам. Поскольку возможности генеративного ИИ продолжают совершенствоваться, платформам потребуется вкладывать значительные средства в технологии обнаружения, способные идентифицировать синтетический контент и отличать его от законного использования ИИ.
Расследование также поднимает вопросы о будущем самой модерации контента. При миллиардах единиц контента, ежедневно публикуемых на основных платформах, сможет ли любая комбинация ИИ и модераторов-людей действительно идти в ногу со временем? Некоторые эксперты утверждают, что для адекватного решения этих проблем могут потребоваться фундаментальные изменения в работе платформ — например, ограничение алгоритмического продвижения контента, который не прошел проверку.



Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.
/ Создать бесплатный аккаунт