硅谷与五角大楼之间的关系长期以来一直是摩擦的源头,其定义是在国家安全需求与人工智能伦理边界之间维持微妙的平衡。为了澄清其立场,OpenAI 最近披露了管理其与美国国防部(DoD)合作伙伴关系的具体合同语言和“红线”。这一披露正值关键时刻,该公司正试图摆脱围绕其他人工智能实验室的争议,并为军事参与建立新标准。
多年来,由于谷歌等公司内部员工的抗议,科技行业在很大程度上一直处于自我流放的状态,不参与国防工作。然而,随着地缘政治紧张局势的加剧以及大型语言模型(LLM)战略重要性的不可否认,形势发生了变化。OpenAI 最新的透明度报告表明,虽然他们对与军方的业务往来持开放态度,但并不会提供一张“空白支票”。
OpenAI 与国防部的协议建立在几项不可谈判的禁令之上。这些不仅仅是口头承诺;它们被编入合同语言中,以确保该技术被用于行政、物流和防御目的,而非进攻性行动。
首先,协议明确禁止将 OpenAI 技术用于开发或操作自主武器。这解决了对“杀人机器人”情景的主要担忧,确保人工智能不拥有部署致命武力的最终决定权。其次,合同禁止将其模型用于大规模国内监视。这是一个关键的区别,旨在保护公民自由并防止建立全景监狱式的国家。
最后,合同语言禁止在可能影响个人自由的高风险决策系统中使用人工智能,并特别引用了“社会信用”评分。通过划定这些界限,OpenAI 试图将其参与框定为军方“后台”的现代化努力——改进翻译、数据分析和网络安全——而不是核心情报的武器化。
OpenAI 最近沟通中最引人注目的方面之一是与竞争对手 Anthropic 的直接比较。OpenAI 声称其与国防部的协议实际上“更好”,并且比 Anthropic 著名地拒绝签署的合同具有更强大的安全护栏。
要理解这一点,必须观察“拒绝”与“谈判”之间的细微差别。虽然 Anthropic 选择远离某些国防合同以维持其“宪法 AI”的品牌形象,但 OpenAI 认为,通过留在谈判桌上,他们能够将自己的安全标准直接植入政府的采购流程中。OpenAI 暗示,具有安全意识的实验室如果完全拒绝,只会为那些不那么谨慎的行为者向军方提供不受约束的人工智能工具敞开大门。在他们看来,受监管的存在比有原则的缺席更安全。
批评者经常想知道,一旦软件进入机密防火墙之后,这些“红线”究竟是如何执行的。OpenAI 通过强调多层次的监督方法来解决这个问题。这包括技术监控(筛选 API 调用是否违反政策)和法律责任。
由于国防部使用的是企业级版本的软件,OpenAI 对使用模式保持了一定程度的可视化,这在完全断开连接的“物理隔离”安装中是不可能实现的。此外,合同还包括审计权,允许定期审查模型如何集成到军事工作流程中。这是一个信任系统,但通过严格的技术和法律检查进行验证。
这笔交易的影响远超五角大楼。对于企业领导者和开发人员来说,OpenAI 的立场为如何处理高风险环境中的伦理困境提供了蓝图。它发出了一个信号,即“安全”不是一个二进制状态(开启或关闭),而是一系列协商的边界。
随着人工智能继续渗透到从医疗保健到金融的关键基础设施中,“红线”框架可能会成为行业标准。公司将不再仅仅询问工具是否有效;他们会询问该工具在合同上被禁止做什么。OpenAI 在此处的透明度是试图引领这场对话,将其定位为机构人工智能成熟、务实的选择。
如果您的组织希望在敏感或高度受监管的部门实施人工智能,OpenAI 的方法提供了几点启示:


