Глобальная гонка за превосходство в области искусственного интеллекта часто представляется как битва вычислительных мощностей и эффективности алгоритмов. Однако недавнее исследование, опубликованное в журнале PNAS Nexus, подчеркивает другой тип архитектурного разрыва: идеологический. Исследователи обнаружили, что ведущие китайские большие языковые модели (LLM), включая DeepSeek, BaiChuan и ChatGLM, демонстрируют системные паттерны цензуры и соответствия государственным нарративам при столкновении с политически чувствительными запросами.
По мере того как ИИ становится основным интерфейсом, через который мы получаем доступ к информации, эти результаты поднимают критические вопросы о будущем фрагментированного интернета. В то время как западные модели, такие как GPT-4 или Claude, имеют свои собственные защитные барьеры, исследование предполагает, что китайские модели работают в рамках уникального набора ограничений, направленных на поддержание «основных социалистических ценностей» и государственной стабильности.
Чтобы понять глубину этих ограничений, исследователи подготовили набор данных из более чем 100 вопросов, охватывающих спектр чувствительных тем: от исторических событий, таких как протесты на площади Тяньаньмэнь, до современных геополитических напряженностей и критики государственного руководства. Затем они протестировали несколько высокопрофильных китайских моделей и сравнили их ответы с международными эталонами.
Результаты не сводились просто к ответам «да» или «нет». Вместо этого исследование выявило сложную иерархию уклонения. Некоторые модели просто выдавали жестко запрограммированный отказ, в то время как другие пытались перевести разговор на нейтральную почву или предоставить ответ, отражающий официальные государственные документы. Это говорит о том, что цензура в этих моделях — не просто запоздалая мысль, а нечто, заложенное в данные для обучения и этапы обучения с подкреплением на основе отзывов людей (RLHF).
Исследование классифицировало ответы на три основных типа поведения: отказ, шаблонные ответы и смена темы. При вопросах о конкретных политических фигурах или чувствительных датах такие модели, как ChatGLM и BaiChuan, часто возвращали стандартные сообщения об ошибке или заявляли, что они «не могут обсуждать эту тему».
Интересно, что DeepSeek — модель, получившая значительное международное признание благодаря своей эффективности и подходу с открытыми весами — также показала высокий уровень чувствительности. При получении вопросов о государственном суверенитете или конкретной внутренней политике модель часто переходила на нейтральный описательный тон, избегающий любого критического анализа. Это подчеркивает центральное противоречие для китайских технологических гигантов: необходимость создания глобально конкурентоспособного, высокопроизводительного ИИ при строгом соблюдении требований Управления по вопросам киберпространства Китая (CAC).
В следующей таблице обобщено общее поведение, наблюдаемое в ходе исследования, когда моделям предлагались политические запросы высокой степени чувствительности.
| Название модели | Происхождение | Основная стратегия ответа | Уровень чувствительности |
|---|---|---|---|
| GPT-4o | США | Нюансированный/Отказ (на основе безопасности) | Средний |
| DeepSeek-V3 | Китай | Перенаправление/Соответствие гос. линии | Высокий |
| ChatGLM-4 | Китай | Жесткий отказ/Стандартное сообщение | Очень высокий |
| BaiChuan-2 | Китай | Смена темы/Нейтральность | Высокий |
| Llama 3 | США | Информативный/Открытый (ограничен политиками) | Низкий |
Чтобы понять, почему эти модели ведут себя именно так, необходимо взглянуть на регуляторную среду в Китае. В 2023 году CAC выпустило временные меры по управлению сервисами генеративного ИИ. Эти правила прямо гласят, что контент, создаваемый ИИ, должен отражать «основные социалистические ценности» и не должен содержать контента, который «подрывает государственную власть» или «подрывает национальное единство».
Для разработчиков ставки высоки. В отличие от западных разработчиков, которые могут столкнуться с общественным порицанием за предвзятость ИИ, китайским фирмам грозит потенциальный отзыв лицензии или юридические санкции, если их модели генерируют «вредный» политический контент. Это привело к разработке уровней «пре-фильтрации» и «пост-фильтрации» — программного обеспечения, которое сканирует запрос пользователя на наличие ключевых слов еще до того, как он попадет в LLM, и другого, которое сканирует результат до того, как его увидит пользователь.
Цензура — это не только социальная или политическая проблема; она имеет технические последствия. Когда модель сильно настраивается (fine-tuned) на избегание определенных тем, она может страдать от того, что исследователи называют «налогом на выравнивание» (alignment tax). Это относится к потенциальному ухудшению общих способностей к рассуждению или творческих способностей, поскольку веса модели смещаются в сторону конкретных идеологических ограничений.
Тем не менее, исследование PNAS Nexus отметило, что китайские модели остаются удивительно способными в объективных областях, таких как математика, программирование и лингвистика. Цензура кажется высокохирургической. Задача для мирового технологического сообщества состоит в том, чтобы определить, как эти «идеологически выровненные» модели будут взаимодействовать с остальным миром по мере их интеграции в глобальные цепочки поставок и экосистемы программного обеспечения.
Поскольку ландшафт ИИ продолжает разделяться, компании и разработчики должны тщательно учитывать эти различия. Если вы работаете с китайскими LLM или оцениваете их, примите во внимание следующее:
Результаты исследования PNAS Nexus служат напоминанием о том, что ИИ не является нейтральным инструментом. Он является отражением данных, ценностей и законов места своего происхождения. По мере того как мы движемся к будущему «суверенного ИИ», способность идентифицировать эти цифровые границы и ориентироваться в них станет критически важным навыком для любого ИТ-профессионала.
Источники:



Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.
/ Создать бесплатный аккаунт