聊天机器人真的能成为物理灾难的催化剂吗?就在五年前,这听起来还像是科技惊悚片的剧情。然而,当我们置身于 2026 年的格局中时,数字未来的架构师们正以极其严肃的态度对待这个答案。生成式 AI 时代的巨头 Anthropic 和 OpenAI 不再仅仅寻找软件工程师和数据科学家,他们现在正积极招募化学武器、爆炸物和生物威胁方面的专家。
这一转变标志着科技行业演进中的一个变革性时刻。我们正在告别“快速行动,打破常规”的时代——那时被打破的通常只是旧有的商业模式——进入一个充满不确定性的现实,在这里,“被打破的”可能是公共安全和国际安全。各类组织正日益表现得像生物有机体,开发免疫系统来保护自身和公众免受其卓越智能所带来的意外后果的影响。
Anthropic 最近发布了一个备受瞩目的职位招聘,寻找一名专门研究化学武器和爆炸物的政策专家,这标志着这一转变。当然,这个角色的目的不是制造武器,而是为了防止其 Claude 模型被“灾难性误用”。换句话说,他们正在聘请那些知道如何制造炸弹的人,以便教会 AI 为什么永远不应该帮助其他人做同样的事情。
在我早期在科技初创公司工作的日子里,我们最大的“安全”担忧是数据库泄露或有缺陷的 API。我记得那些靠冷披萨支撑的深夜加班,虽然当时觉得赌注很高,但物理世界依然毫发无损。因此,看到今天从旧金山传出的职位描述,感觉像是一种超现实的企业转型。受聘于此职位的人将设计并监控护栏,以规范 AI 模型如何应对有关敏感化学化合物的提示。他们是应对新型数字火灾的“快速反应”小组。
在 OpenAI 和 Anthropic 的走廊里经常被低声提及的缩写是 CBRN:化学(Chemical)、生物(Biological)、放射性(Radiological)和核(Nuclear)。随着前沿模型变得更加强大,它们对科学文献有了细致入微的理解。虽然这对于药物研发和材料科学具有创新意义,但如果模型能够合成神经毒剂或简易爆炸装置的指令,那就同样危险。
奇怪的是,风险不仅在于 AI 知道“配方”,还在于 AI 可以为心怀不轨的人充当高效的项目经理。它可以排除化学反应故障,建议绕过法律限制的替代前体,并提供设备搭建的逐步指导。与静态搜索引擎相比,交互式 AI 可以在危险的过程中“手把手”引导用户。这就是为什么这些模型的“基石”必须从底层开始就注入安全性。
OpenAI 在其“备战”(Preparedness)团队中也采取了类似的路径。该小组的任务是评估前沿模型针对“灾难性”风险的表现。他们开发了一套复杂的评分系统,以追踪模型在多大程度上能够协助生物或化学攻击。如果一个模型在没有足够防护措施的情况下跨越了某个能力阈值,该框架规定不得向公众发布。
尽管如此,挑战依然巨大。AI 安全不是一个“一劳永逸”的功能。它是一段旅程,而非终点。随着模型的演进,它们会发现绕过旧过滤器的新方法——这种现象被称为“越狱”(jailbreaking)。通过聘请那些在实验室和高安全性环境中度过职业生涯的专家,AI 公司正试图领先于那些往往伴随技术突破而来的创造性恶意一步。
我们必须将科技行业视为一个生态系统。当一个新的、强大的捕食者——或者在这种情况下,一个变革性的工具——被引入时,整个环境必须进行调整以维持平衡。招募武器专家是行业走向成熟的标志。这等于承认这些公司所掌握的力量太大,不能采取“走着瞧”的态度。
在我管理跨不同时区的远程团队期间,我学到最成功的项目不是那些拥有最快开发者的项目,而是那些拥有最佳远见的项目。你必须预见到摩擦会发生在哪里。在 AI 的背景下,这种摩擦就是数字智能与物理伤害的交汇点。
虽然我们大多数人并不在构建大语言模型或处理化学前体,但 AI 安全的专业化对于我们如何与技术互动具有现实意义。以下是你应该记住的几点:
展望 2026 年余下的日子,核物理学家、化学家和程序员之间的协作可能会成为标准,而非例外。在我们追求构建既聪明又安全的工具的过程中,这是一种奇怪、略显令人不安、但最终必要的进化。



