五角大楼与 Anthropic 最近的决裂揭示了一个硅谷和华盛顿许多人试图忽视的现实:我们正在盲目飞行。当国防机构与私人实验室在国家安全边界和企业自主权问题上发生冲突时,领导层出现了真空。在这个真空地带,《亲人类宣言》(Pro-Human Declaration)应运而生。这是一个由研究人员、伦理学家和行业资深人士组成的跨党派联盟制定的框架,他们认为,如果政府不制定规则,人民就必须制定。
该宣言由麻省理工学院物理学家马克斯·泰格马克(Max Tegmark)参与组织,就在美国国防部与世界领先的人工智能实验室之一的僵局达到白热化之际发布。这不仅仅是另一封公开信;它是一份技术和伦理蓝图,针对的是一个超级智能不再是科幻小说中的桥段,而是迫在眉睫的里程碑的世界。
多年来,人工智能监管方法一直是反应性的。立法往往滞后于模型训练的惊人速度,导致开发者只能进行自我监管。五角大楼与 Anthropic 的事件——在模型访问和安全协议方面的沟通破裂导致了公开断绝关系——表明,如果没有明确、标准化的参与规则,即使是风险最高的合作伙伴关系也是脆弱的。
马克斯·泰格马克指出,公众的耐心已达到极限。最近的数据显示,95% 的美国人现在反对不受监管的超级智能竞赛。这不仅仅是对“杀手机器人”的恐惧;这是对经济流失、真相被侵蚀以及在管理我们生活的决策过程中丧失人类能动性的理性担忧。
《亲人类宣言》超越了关于“人工智能向善”的模糊陈词滥调。相反,它提出了三个具体的支柱,旨在确保随着系统变得更加强大,它们仍牢牢处于人类的控制之下。
为了理解该宣言提出的转变,我们可以看看当前的行业实践与拟议框架的对比。
| 特性 | 当前行业标准 | 亲人类路线图 |
|---|---|---|
| 安全测试 | 内部红队测试;自愿披露。 | 强制性的、独立的第三方审计。 |
| 法律责任 | 模糊;通常受最终用户许可协议(EULA)保护。 | 明确的开发者责任法律框架。 |
| 发展速度 | 竞争性的“逐顶(或逐底)竞赛”。 | 设有安全门槛的里程碑和计算上限。 |
| 公众参与 | 极少;仅限于发布后的反馈。 | 跨党派监督和公共透明度。 |
《亲人类宣言》与五角大楼最近的困境相撞并非巧合。军事工业复合体渴望大型语言模型(LLM)和自主代理的能力,但缺乏内部专业知识来对其进行审查。相反,像 Anthropic 这样的实验室则担心其技术被用于违反其核心安全原则的方式。
如果没有统一的路线图,我们就会面临一个碎片化的局面:一些实验室在不透明的条款下与国家合作,而另一些则退缩到孤立状态。这种碎片化是危险的。它创造了为了速度而牺牲安全的“监管避难所”,并将公众完全排除在对话之外。
虽然《亲人类宣言》尚未成为法律,但它为未来几个月负责任的人工智能发展应有的样子提供了一份清单。对于技术领袖和关注此事的公民来说,以下步骤至关重要:
《亲人类宣言》提醒我们,智能的未来太重要了,不能留给少数首席执行官和将军。它呼吁对我们时代最具变革性的技术采取更加民主、透明,以及最重要的人类中心的方法。路线图已经摆在桌面上;剩下的唯一问题是,掌权者是否会选择遵循它。
来源:


