全球人工智能霸权的竞争通常被描述为算力和算法效率的较量。然而,最近发表在《PNAS Nexus》期刊上的一项研究强调了一种不同类型的架构分歧:意识形态分歧。研究人员发现,领先的中国大语言模型(LLM),包括 DeepSeek、百川(BaiChuan)和 ChatGLM,在面对政治敏感查询时,表现出系统性的审查模式以及与国家叙事保持一致。
随着 AI 成为我们获取信息的主要界面,这些发现引发了关于碎片化互联网未来的关键问题。虽然像 GPT-4 或 Claude 这样的西方模型有自己的安全护栏,但研究表明,中国模型的运行受到一套独特的约束,旨在维护“社会主义核心价值观”和国家稳定。
为了了解这些限制的深度,研究人员策划了一个包含 100 多个问题的数据集,涵盖了一系列敏感话题,从天安门广场抗议等历史事件到当代的地缘政治紧张局势以及对国家领导层的批评。随后,他们对几个知名的中国模型进行了提示,并将其输出与国际基准进行了比较。
结果不仅仅是“是”或“否”的问题。相反,研究发现了一个复杂的规避层级。一些模型会直接触发硬编码的拒绝,而另一些模型则试图将对话转向中立立场,或提供反映政府官方白皮书内容的回答。这表明,这些模型中的审查不仅是事后补救,而是植入到了训练数据和人类反馈强化学习(RLHF)阶段中。
研究将反应归纳为三种主要行为:拒绝、预设回答和话题转移。当被问及特定的政治人物或敏感日期时,ChatGLM 和百川等模型经常返回标准化的错误消息,或表示它们“无法讨论此话题”。
有趣的是,DeepSeek——一个因其效率和开源权重方法而在国际上获得显著关注的模型——也显示出高度的敏感性。当被问及国家主权或特定国内政策的问题时,该模型通常默认采用中立、描述性的语气,避免任何批判性分析。这凸显了中国科技巨头面临的核心矛盾:既要创建具有全球竞争力、能力强大的 AI,又要严格遵守中国国家互联网信息办公室(CAC)的规定。
下表总结了研究过程中观察到的、当模型面对高敏感度政治提示时的普遍行为。
| 模型名称 | 来源 | 主要应对策略 | 敏感度水平 |
|---|---|---|---|
| GPT-4o | 美国 | 细致/拒绝(基于安全) | 中等 |
| DeepSeek-V3 | 中国 | 重定向/国家一致性 | 高 |
| ChatGLM-4 | 中国 | 硬拒绝/标准化消息 | 极高 |
| BaiChuan-2 | 中国 | 话题转移/中立 | 高 |
| Llama 3 | 美国 | 信息丰富/开放(受政策限制) | 低 |
要理解这些模型为何表现出这种行为,必须审视中国的监管环境。2023 年,国家网信办发布了生成式人工智能服务管理暂行办法。这些规定明确指出,AI 生成的内容必须体现“社会主义核心价值观”,不得包含“颠覆国家政权”或“破坏国家统一”的内容。
对于开发者来说,代价是巨大的。与西方开发者可能因 AI 偏见而面临公关危机不同,中国企业如果其模型生成“有害”政治内容,可能会面临吊销执照或法律处罚。这导致了“预过滤”和“后过滤”层的开发——即在用户提示到达 LLM 之前扫描关键词的软件,以及在用户看到输出之前进行扫描的另一层软件。
审查不仅是一个社会或政治问题,它还具有技术影响。当一个模型为了避开某些话题而经过重度微调时,它可能会遭受研究人员所称的“对齐税”。这是指由于模型的权重被拉向特定的意识形态约束,从而导致通用推理或创造能力的潜在退化。
然而,《PNAS Nexus》的研究指出,中国模型在数学、编程和语言学等客观领域仍然表现出卓越的能力。审查似乎是高度“外科手术式”的。全球科技界面临的挑战是,随着这些“意识形态对齐”的模型被整合到全球供应链和软件生态系统中,它们将如何与世界其他地区互动。
随着 AI 格局继续分化,企业和开发者必须谨慎应对这些差异。如果您正在使用或评估中国 LLM,请考虑以下几点:
《PNAS Nexus》研究的发现提醒我们,AI 并非中立工具。它是其起源地数据、价值观和法律的反映。随着我们迈向“主权 AI”的未来,识别和应对这些数字边界的能力将成为任何科技专业人士的关键技能。
来源:


