随着选民越来越多地转向大语言模型(LLM)以获取复杂政治局势的快速摘要,荷兰数据保护局(Autoriteit Persoonsgegevens,简称 AP)发布了一份令人清醒的现实检查。该监管机构最近进行的一项研究显示,流行的 AI 聊天机器人——包括 ChatGPT 和 Claude 等行业领导者——在引导选民参加地方选举方面能力显著不足,经常忽略定义市政治理的基层政党。
这项调查正值数字民主的关键时刻。随着 2026 年市政选举的临近,AP 试图确定 AI 是否可以作为可靠的数字“Stemwijzer”(荷兰流行的投票指南)。结果表明,虽然这些工具在技术上令人印象深刻,但它们对全球数据集的依赖导致了与地方现实的危险脱节。
在荷兰,市政选举通常由没有全国影响力的当地利益政党主导。这些团体通常占据很大一部分选票,解决从社区规划到区域交通等极具地方特色的问题。然而,AP 对五个主要模型(ChatGPT、Claude、Gemini、Grok 和 Mistral)的测试发现了一个惊人的遗漏:在聊天机器人的投票建议中,提及特定地方政党的比例不足 1%。
这种“抹除”创造了一个倾斜的数字景观。当选民向 AI 咨询有关地方问题的建议时,模型往往默认选择 VVD、PVV 或 GroenLinks-PvdA 等著名的全国性实体,因为这些政党拥有更大的数字足迹。对于仅存在于特定市镇的地方政党,AI 的训练数据通常过于薄弱,无法提供准确的陈述,从而在民主进程中有效地压制了地方的声音。
除了遗漏地方政党外,AP 的研究还强调了持续存在的“幻觉”问题。在多个案例中,聊天机器人将政策立场归于某些政党,而这些立场要么完全是虚构的,要么与该政党的实际宣言背道而驰。
危险在于呈现方式。与传统的搜索引擎提供来源列表供用户验证不同,聊天机器人提供的是对话式的、权威的回答。这种“中立的错觉”可能导致选民将错误信息视为客观事实。AP 指出,由于这些模型的内部逻辑是一个“黑匣子”,公民几乎不可能追踪特定建议是如何达成的,也无法识别训练数据中固有的偏见。
根据 AP 的说法,使用 AI 作为主要的投票辅助工具会对民主进程带来三种截然不同的风险:
虽然所有模型在处理地方细微差别方面都很吃力,但 AP 注意到它们在处理政治查询时存在细微差异。
| AI 模型 | 地方政党识别度 | 政策准确性 | 语气/中立性 |
|---|---|---|---|
| ChatGPT (OpenAI) | 极低 | 中等 | 高度对话化 |
| Claude (Anthropic) | 极低 | 高 | 谨慎/易拒绝 |
| Gemini (Google) | 低 | 中等 | 与搜索集成 |
| Grok (xAI) | 极低 | 多变 | 过滤较少 |
| Mistral (Mistral AI) | 低 | 中等 | 简洁 |
注:“低”表示在所有测试场景中提及地方政党的比例低于 1%。
如果你正在寻求政治上的清晰度,AP 建议 AI 最多只能作为更广泛研究的起点,而不是最终目的地。以下是如何安全地浏览数字投票站的方法:
荷兰数据保护局的调查结果提醒开发人员和监管机构采取行动。随着《欧洲人工智能法案》开始成型,用于民主进程的模型透明度可能会面临更严格的审查。目前,AP 传达的信息很明确:在投票箱前,人类的智慧和地方知识仍然是不可替代的。
来源:



