Power Reads

《亲人类宣言》:超级智能时代的跨党派路线图

探索《亲人类宣言》,这是一份在五角大楼与 Anthropic 对峙后提出的负责任人工智能发展跨党派路线图。了解人工智能安全。
Linda Zola
Linda Zola
2026年3月8日
《亲人类宣言》:超级智能时代的跨党派路线图

五角大楼与 Anthropic 最近的决裂揭示了一个硅谷和华盛顿许多人试图忽视的现实:我们正在盲目飞行。当国防机构与私人实验室在国家安全边界和企业自主权问题上发生冲突时,领导层出现了真空。在这个真空地带,《亲人类宣言》(Pro-Human Declaration)应运而生。这是一个由研究人员、伦理学家和行业资深人士组成的跨党派联盟制定的框架,他们认为,如果政府不制定规则,人民就必须制定。

该宣言由麻省理工学院物理学家马克斯·泰格马克(Max Tegmark)参与组织,就在美国国防部与世界领先的人工智能实验室之一的僵局达到白热化之际发布。这不仅仅是另一封公开信;它是一份技术和伦理蓝图,针对的是一个超级智能不再是科幻小说中的桥段,而是迫在眉睫的里程碑的世界。

治理危机

多年来,人工智能监管方法一直是反应性的。立法往往滞后于模型训练的惊人速度,导致开发者只能进行自我监管。五角大楼与 Anthropic 的事件——在模型访问和安全协议方面的沟通破裂导致了公开断绝关系——表明,如果没有明确、标准化的参与规则,即使是风险最高的合作伙伴关系也是脆弱的。

马克斯·泰格马克指出,公众的耐心已达到极限。最近的数据显示,95% 的美国人现在反对不受监管的超级智能竞赛。这不仅仅是对“杀手机器人”的恐惧;这是对经济流失、真相被侵蚀以及在管理我们生活的决策过程中丧失人类能动性的理性担忧。

亲人类框架的支柱

《亲人类宣言》超越了关于“人工智能向善”的模糊陈词滥调。相反,它提出了三个具体的支柱,旨在确保随着系统变得更加强大,它们仍牢牢处于人类的控制之下。

  1. 强制性安全缓冲: 在部署任何超过特定计算阈值的模型之前,必须经过独立于开发者和政府的第三方审计。这防止了目前行业中普遍存在的“自己给自己改作业”的问题。
  2. 人类自主权: 宣言断言,某些决策——法律判决、致命武力和医疗诊断——必须始终有“人类参与(human-in-the-loop)”并承担最终责任。人工智能可以提供建议,但必须由人类决定。
  3. 意图透明度: 开发者不仅必须透明地说明模型“做了什么”,还必须说明它是“如何训练的”以及其优化目标是什么。如果一个模型的设计是为了以牺牲准确性为代价来最大化参与度,那必须成为公共记录。

当前现状与亲人类路线图的对比

为了理解该宣言提出的转变,我们可以看看当前的行业实践与拟议框架的对比。

特性 当前行业标准 亲人类路线图
安全测试 内部红队测试;自愿披露。 强制性的、独立的第三方审计。
法律责任 模糊;通常受最终用户许可协议(EULA)保护。 明确的开发者责任法律框架。
发展速度 竞争性的“逐顶(或逐底)竞赛”。 设有安全门槛的里程碑和计算上限。
公众参与 极少;仅限于发布后的反馈。 跨党派监督和公共透明度。

为什么五角大楼与 Anthropic 的僵局至关重要

《亲人类宣言》与五角大楼最近的困境相撞并非巧合。军事工业复合体渴望大型语言模型(LLM)和自主代理的能力,但缺乏内部专业知识来对其进行审查。相反,像 Anthropic 这样的实验室则担心其技术被用于违反其核心安全原则的方式。

如果没有统一的路线图,我们就会面临一个碎片化的局面:一些实验室在不透明的条款下与国家合作,而另一些则退缩到孤立状态。这种碎片化是危险的。它创造了为了速度而牺牲安全的“监管避难所”,并将公众完全排除在对话之外。

实际启示:接下来会发生什么?

虽然《亲人类宣言》尚未成为法律,但它为未来几个月负责任的人工智能发展应有的样子提供了一份清单。对于技术领袖和关注此事的公民来说,以下步骤至关重要:

  • 要求独立审计: 支持将安全测试从构建模型的公司手中移出的倡议。
  • 倡导“人类参与”立法: 确保高风险的自动化始终需要人类签名。
  • 监控计算阈值: 关注正在建设的大规模硬件集群;这些是下一代超级智能诞生的物理场所,需要物理监管。
  • 弥合跨党派分歧: 这一新路线图的力量在于其广泛的支持。人工智能安全不应是一个党派问题,因为对齐失败的风险会影响到每一个人,无论其政治立场如何。

前行之路

《亲人类宣言》提醒我们,智能的未来太重要了,不能留给少数首席执行官和将军。它呼吁对我们时代最具变革性的技术采取更加民主、透明,以及最重要的人类中心的方法。路线图已经摆在桌面上;剩下的唯一问题是,掌权者是否会选择遵循它。

来源:

  • Future of Life Institute: AI Policy and Governance Research
  • MIT News: Max Tegmark on AI Safety and the Future of Intelligence
  • Anthropic: Core Views on AI Safety and Model Scaling
  • Department of Defense: Ethical Principles for Artificial Intelligence
bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户