埃隆·马斯克(Elon Musk)与 OpenAI 之间的法律摩擦已从公开的社交媒体口水战演变为高风险的法庭证词。在 2026 年 2 月一份新公开的证词中,马斯克对他参与创立的这家公司提出了迄今为止最具挑衅性的批评,通过将 OpenAI 的安全记录与其旗下的 AI 创业公司 xAI 进行鲜明对比,直指其痛处。
在诉讼过程中,马斯克断言他的生成式人工智能 Grok 与 ChatGPT 相比,保持着更优越的安全特性。他用一段关于 AI 交互在现实世界后果的争议性言论强调了这一主张。“没有人因为 Grok 而自杀,”马斯克在文件中陈述道,“但显然有人因为 ChatGPT 而自杀。”这种措辞标志着诉讼焦点的转变,从合同纠纷转向了数字伦理和心理健康这一动荡领域。
这份证词是马斯克针对 OpenAI 及其首席执行官萨姆·奥特曼(Sam Altman)发起的更广泛法律行动的一部分。马斯克论点的核心仍然是:OpenAI 已经背弃了其最初的非营利使命——即为了全人类的利益开发通用人工智能(AGI)——转而成为微软的“闭源”利润引擎。
然而,这些最新言论表明,马斯克正试图重新定义“造福人类”的含义。通过将 OpenAI 的产品描绘成对个人用户具有潜在危害,马斯克不仅将 xAI 定位为技术竞争对手,还将其定位为道德替代方案。他认为,OpenAI 的“觉醒派(woke)”防护栏实际上创造了一个欺骗性的环境,而 Grok 的“反觉醒”、求真方法本质上更安全,因为它不试图操纵用户对现实的感知。
马斯克提到的自杀事件似乎是指过去几年中涉及 AI 聊天机器人的一系列悲剧报道。在几起备受关注的案例中,死者家属声称,与 AI 模型(包括 OpenAI 开发的模型以及 Character.ai 等竞争对手的模型)进行长期的、带有情感色彩的互动导致了心理困扰。
OpenAI 一贯为其安全协议辩护,指出 ChatGPT 包含广泛的过滤器,用于检测自残意图并引导用户寻求专业帮助。该公司坚持认为,其“红队测试(Red Teaming)”流程是行业内最严谨的流程之一。
相比之下,Grok 在设计时带有一种“叛逆性格”,旨在回答其他 AI 可能会回避的问题。批评者认为,这种缺乏传统过滤机制的做法实际上可能会增加风险,而马斯克则辩称,透明度和“最大程度的求真”是防止 AI 成为操纵力量的唯一途径。
| 特性 | OpenAI (ChatGPT) | xAI (Grok) |
|---|---|---|
| 主要目标 | 有用、无害且诚实。 | 最大程度的求真与透明。 |
| 安全机制 | 广泛的 RLHF(人类反馈强化学习)和内容过滤。 | 实时访问 X(原 Twitter)数据且较少意识形态限制。 |
| 哲学 | 家长式安全(防止冒犯/伤害)。 | 自由意志主义安全(提供原始信息)。 |
| 公开立场 | AGI 必须受到严格监管。 | AI 必须被允许说真话才能保证安全。 |
法律分析人士指出,马斯克在证词中对安全性的关注具有双重目的。首先,它试图削弱 OpenAI 的“公共利益”辩护。如果马斯克能证明 OpenAI 向营利模式的转变导致了安全标准的下降或实际的人身伤害,这将加强他关于该公司违反创始协议的主张。
其次,这可以作为 xAI 的强大营销工具。通过将 Grok 定位为危险替代品格局中唯一的“安全”AI,马斯克正在吸引那些对主流科技巨头持怀疑态度的特定用户群体。然而,这一策略并非没有风险。通过对 Grok 的安全性做出如此绝对的声明,马斯克也招致了外界对其自身平台表现及潜在意外后果的严厉审视。
随着行业巨头在法庭上博弈,普通用户只能自行应对 AI 安全的复杂性。无论你倾向于 ChatGPT 的精选体验还是 Grok 的无过滤特性,请考虑以下几点:
这份证词的发布可能会引发 OpenAI 法律团队的回应,可能涉及针对 xAI 自身模型安全性的反诉。随着审判日期的临近,科技行业正密切关注。其结果不仅将决定 OpenAI 企业结构的未来,还可能为 AI 公司如何对用户的现实行为承担法律责任设定先例。
目前,战线已经清晰划定:一方主张通过谨慎和过滤来实现安全,而另一方则主张通过透明度和原始数据来实现安全。正如马斯克的证词所证明的那样,对 AGI 的追求不再仅仅是一场科学竞赛——它是一场法律和道德战争。



