现代科技景观承诺了一个无缝连接的未来,人工智能充当数字伴侣,减轻我们的认知负荷,并将我们日常生活中碎片化的线索编织成一幅连贯、优化的进步图景。我们被告知,这些系统是民主化的终极工具,能够通过生成式合成的巨大力量解决气候变化、治愈疾病并培养全球社区。然而,这一愿景仍然是一个脆弱的幻象,除非我们面对现实:这些工具在算法上受限于资助者的优先级,当“中立”的代码在国家安全的掩护下被重新用于致命目的时,必然会导致自主权的丧失。随着我们步入 2026 年,硅谷的承诺与钢铁般的战争现实之间的摩擦已达到临界点,这集中体现在 600 多名谷歌员工给首席执行官 Sundar Pichai 的一封公开信中。
上周二,我坐在一间拥挤的咖啡馆里,看着一名年轻人——从贴满贴纸的笔记本电脑来看,可能是一名开发人员——正专注地为大语言模型(LLM)改进提示词。他正在为一家小企业设计一个更高效的物流链。对他来说,代码是一个平凡的工具,是在系统性混乱中维持职业生活的锚点。但从宏观层面放大来看,他用来帮助当地花店的架构,只需在机密环境中进行几次参数调整,就能成为目标识别系统的骨干。正是这种切实的焦虑渗透到了谷歌 DeepMind 和 Cloud 部门的走廊里。这封信不仅仅是一场抗议;它也是对原子化现象的深刻拒绝,这种现象允许劳动者与其劳动的最终后果相脱节。
从语言学角度来看,谷歌员工与五角大楼之间的冲突是一场定义之战。当员工使用“非人道”一词来描述 Gemini 可能的军事应用时,他们正在进行一种特定的话语分析。他们不仅仅是在使用一个道德化的形容词;他们正试图为什么是“人类”技术定义界限。相比之下,五角大楼推行的“所有合法用途”一词是语言被用作文化麻醉剂的典型例子。“合法”是一个系统性术语,它随着政治风向而变化,并为公众监督提供了一层不透明的盾牌。如果法律允许大规模监控或自主瞄准,那么无论其对平民的直观影响如何,这种行为在定义上就是合法的。
从历史上看,这种语义上的拉锯战深深植根于军事-工业-数字复合体的演变中。语言在这里扮演着考古遗址的角色,每一个新的合同条款都揭示了不断变化的权力动态层级。通过坚持“操作灵活性”,国防部正寻求将 Gemini 的多面潜力转变为单一的致命工具。员工中不乏语言学和计算机科学专家,他们意识到一旦合同语言被扩大,执行伦理保障的能力就会变得转瞬即逝。矛盾的是,语言越“灵活”,有害的应用就越僵化且不可逃避。
从文化角度来看,我们通常将大型科技公司视为单体,但它们更像是一个群岛社会——成千上万的人生活在密集包装的数字生态系统中,却常常感到与他们“岛屿”的决策中心完全隔绝。这次抗议是一个罕见的时刻,各个孤岛跨越鸿沟,形成了集体的声音。超过 20 位总监和副总裁签署了这封信,这一事实表明科技工作者看待其“惯习”(habitus)的方式发生了深刻的结构性转变。他们不再满足于做机器中被动的齿轮;他们正在维护自己塑造其创造物伦理轨迹的权利。
这种集体行动让我想起与一位拥有十年 AI 经验的匿名资深研究员的对话。他们描述了一种“道德损伤”(moral injury)的感觉——这个词通常保留给士兵——当意识到他们在图像识别方面的工作正被改编用于无人机战争时。在个人层面上,研究员感到一种深刻的背叛感。训练模型识别“行人”的平凡行为,突然承载了生死抉择的重量。通过这个视角,抗议不仅仅是关于一份合同;它是专业人士在试图调和个人伦理与数十亿美元国防订单的系统压力时的应对机制。
这一趋势的幕后是 2018 年那段令人难忘的记忆。信中明确提到了 Maven 项目,即之前尝试将谷歌 AI 整合到五角大楼无人机计划的行动。那次成功的反抗促成了《谷歌 AI 原则》的诞生,这份文件旨在充当道德指南针。然而,在“流动的现代性”(liquid modernity)背景下——这是齐格蒙特·鲍曼(Zygmunt Bauman)提出的概念,用于描述我们目前不断变化和不确定的状态——即使是最强大的原则也会显得短暂。事实上,2018 年被视为“红线”的内容,在 2026 年正作为“注意力经济”将重点转向国家安全这一新利润前沿而被重新谈判。
有趣的是,Anthropic 作为谷歌的衬托出现,为这一叙事增添了新的一层。当首席执行官 Dario Amodei 拒绝五角大楼无限制访问的要求时,他打破了全面合作不可避免的迷信。他关于 AI 在某些情况下可能“破坏而非捍卫民主价值”的声明,是对该技术内在脆弱性的微妙承认。结果,现任政府随后对 Anthropic 工具的禁令凸显了这种伦理立场的巨大风险。换句话说,一些人正在拒绝政府合同这种“数字快餐饮食”,转而选择一种营养更丰富、尽管财务风险更高的伦理立场。
信中表达的最强烈的恐惧之一是将 Gemini 用于大规模监控和个人画像。从社会角度来看,我们越来越多地生活在一个镜厅中,我们的数字足迹通过预测——有时甚至是规定——我们行为的算法反射回我们身上。在日常生活中,这表现为个性化广告或社交媒体动态。但当这些工具被应用于“机密工作负载”时,镜子就变成了单面玻璃。缺乏透明度意味着无法确保无辜平民不会基于碎片化的数据点被画像。
本质上,员工们是在警告不要建立一个由他们为帮助人们查找信息而构建的工具所驱动的无处不在的监控国家。讽刺意味对他们来说显而易见。这就是现代城市的悖论:我们在公共和私人的数字空间中表演着不断变化的社会身份,却没意识到舞台本身可能正在为了“致命自主”的目的记录我们的每一次行动。我们生活的“拼布被”——我们的位置数据、搜索历史、私人通信——正被缝合在一起,在未经我们同意或知情的情况下形成目标档案。
最终,谷歌员工的抗议是试图在日益自动化的世界中夺回人类叙事。他们认为谷歌不应该从事“战争业务”,这种情绪在当前的地缘政治气候下既显得怀旧又具有激进色彩。在这种情况下,怀旧充当了对抗不确定未来焦虑的文化麻醉剂;它追溯到一个“不作恶”(Don't be evil)口号听起来像是真诚承诺而非营销遗迹的时代。
放大来看,这个故事不仅仅关乎一家公司或一份合同。它关乎技术创新的快速步伐与人类伦理缓慢而刻意的思考之间的系统性紧张。它要求我们考虑,我们是否愿意接受这样一个世界:我们最先进的工具被用来侵蚀它们本应增强的公民自由。在幕后,五角大楼的谈判代表和谷歌的高管们正在权衡操作灵活性与人权。但在基层,工作者们提醒我们,代码永远不仅仅是代码——它是我们集体价值观的反映。
当我们在这个技术与道德的复杂交汇点航行时,我们或许可以为自己的数字生活考虑以下反思:
当你关闭这个标签页并回到日常生活时,也许可以花点时间观察周围无处不在的 AI。质疑那种根深蒂固的观念,即技术进步必须始终以牺牲伦理清晰度为代价。有时,最深刻的进步举动是说“不”的勇气。
来源:


