Power Reads

人工智能军备竞赛:为何安全性在创新之战中败北

随着人工智能公司优先考虑市场主导地位,安全协议正被边缘化。探索人工智能军备竞赛的风险以及自主代理的兴起。
人工智能军备竞赛:为何安全性在创新之战中败北

在21世纪20年代初期,人工智能行业的巨头们用同一种语言说话:安全。我们曾被许诺一场“向顶端的竞赛”,这是一场协作努力,人类历史上最强大的技术将在护栏、红队测试以及对人类繁荣的共同承诺下进行开发。快进到2026年3月,景象已截然不同。伦理委员会的礼貌辞令已被市场主导地位和国家安全的冷酷实用主义所取代。

随着OpenAI、Google、Meta以及少数资金雄厚的挑战者争夺通用人工智能(AGI)的桂冠,“安全缓冲”——即发布前分配给测试和对齐的时间——已缩减到近乎透明的程度。我们不再仅仅是在辩论聊天机器人是否会给出错误的医疗建议;我们正在见证大规模代理模型被整合到战争机器中。

“稳扎稳打”教条的终结

曾经有一段时间,暂停训练比GPT-4更强大的模型六个月是一个严肃的提议。今天,这个想法感觉就像是一个更纯真时代的遗物。竞争压力造成了经典的囚徒困境:如果一家公司为了确保严格的安全测试而放慢速度,他们就有可能落后于愿意跑得更快的竞争对手。

这种曾经专属于社交媒体应用的“快速行动,打破常规”心态,已被应用于管理关键基础设施和自主决策的系统中。其结果是“安全演戏”的循环——表演式的红队测试,专注于防止冒犯性语言,却忽视了模型欺骗或目标失配的更深层次、结构性风险。当季度收益报告要求取得突破时,安全审计通常是第一个被简化的环节。

从硅谷到战场

过去两年中最令人震惊的转变是,曾经界定人工智能初创公司伦理边界的“非军事用途”条款遭到了侵蚀。随着风险投资变得更加挑剔,以及对庞大计算预算的需求不断增长,人工智能公司转向了唯一拥有无限财力的客户:国防部门。

我们已经超越了科幻小说中理论上的“杀人机器人”桥段。2026年的现实是“算法战争”。我们正看到自主无人机群和人工智能驱动的瞄准系统的部署,它们识别和攻击威胁的速度比人类操作员眨眼还要快。虽然这些系统被框定为减少“附带损害”的精密工具,但它们也消除了历史上作为防止升级检查的人为摩擦。当人工智能公司竞争国防合同时,激励因素是杀伤力和速度,而不是谨慎。

监管滞后与“代理”问题

监管机构永远在打上一场战争。虽然《欧盟人工智能法案》和美国的各项行政命令为“静态”模型(等待提示的聊天机器人)提供了框架,但它们正难以跟上“代理式人工智能”(Agentic AI)的步伐。这些系统能够设定自己的目标、浏览开放网络并在无需人类干预的情况下执行多步任务。

“挑战不仅在于模型变得越来越聪明;还在于它们变得越来越自主。当汽车已经学会自动驶向我们未设定的目的地时,我们却还在监管引擎。”

这种自主性造成了“责任鸿沟”。当代理系统犯下灾难性错误时——无论是在金融市场还是在战术军事模拟中——越来越难以将失败追溯到特定的代码行或特定的人类决策。系统的复杂性已经超过了我们的监管能力。

短视主义的代价

在争夺第一的竞赛中,公司越来越多地依赖“合成数据”——由其他人工智能模型生成的数据——来训练其下一代系统。这创造了一个反馈循环,可能导致“模型崩溃”,即错误和偏见随时间推移而放大。然而,由于合成数据比高质量的人类数据更便宜、获取速度更快,这场竞赛仍在有增无减地进行。

这种短视主义延伸到了劳动力市场。提出安全担忧的工程师经常被边缘化,或者离职去往规模较小、专注于“对齐”的精品公司,而这些公司缺乏真正影响行业轨迹的计算能力。从安全部门到产品部门的人才流失是一场无声的危机,业内很少有人愿意公开承认。

实践建议:应对不安全的人工智能环境

对于在这个人工智能快速部署时代航行的企业和个人而言,安全的负担已从提供者转移到了用户身上。以下是应对当前环境的方法:

  • 验证而非信任: 永远不要假设人工智能代理拥有“护栏”。将每一项输出视为草案,将每一次自主行动视为需要人工参与验证的高风险事件。
  • 审计您的供应链: 如果您的业务使用第三方人工智能工具,要求其训练数据和安全测试协议保持透明。如果他们不提供,就假设安全缓冲被跳过了。
  • 针对关键任务专注于“窄”人工智能: 虽然通用模型令人印象深刻,但它们也是不可预测的。对于任务关键型基础设施,请使用具有明确边界的专业化、窄模型。
  • 倡导“责任优先”的监管: 支持让人工智能开发人员对其自主系统的行为承担法律和财务责任的政策。只有当失败的成本超过速度带来的利润时,激励机制才会改变。

前行之路

人工智能公司之间的“战争”不太可能很快结束。所涉及的利益——经济、政治和军事——实在太高了。然而,我们必须认识到,安全不是一个稍后添加的功能;它是任何有益的通用人工智能必须构建其上的基础。如果我们继续将安全视为可以为速度而牺牲的奢侈品,我们可能会发现自己赢得了一场通往从未想过要到达的目的地的竞赛。

资料来源

  • EU AI Act Official Site
  • OpenAI Safety and Alignment Research
  • Anthropic's Responsible Scaling Policy
  • Center for AI Safety - Statement on AI Risk
  • Department of Defense - Ethical Principles for AI
bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户