智能眼镜的承诺一直是未来主义实用性与日常生活的无缝融合。然而,这种“无缝性”现在正处于 Meta 公司日益严重的法律危机的核心。一项新的诉讼指控称,这些旨在捕捉我们珍贵回忆的设备,反而一直在捕捉我们最私密的时刻——而这些时刻竟然被数千英里外的人工承包商进行审查。
这一法律行动是在瑞典报纸《瑞典日报》(Svenska Dagbladet)和《哥德堡邮报》(Göteborgs-Posten, GP)的一系列调查报告之后发起的。报告指出,Meta 与雷朋(Ray-Ban)合作开发的 AI 智能眼镜一直在将敏感的视频和音频数据传输给肯尼亚的分包商进行人工审查。据称,这些工作人员看到的内极其私密,从亲密接触到敏感的财务信息不等。
要理解这一切是如何发生的,必须审视 AI 开发中常见的“人机回环”(Human-in-the-Loop, HITL)过程。为了让 AI 理解世界,通常需要人类来标记数据。如果一副智能眼镜捕捉到了模糊的图像,人工操作员的任务可能是识别其中的物体,以改进设备的物体识别算法。
然而,诉讼声称这一过程缺乏必要的保护措施来过滤掉私人或敏感内容。根据报告,肯尼亚分包商的工作人员接触到了用户在浴室内、进行性活动、甚至输入银行卡详情或私人消息的画面。这为科技行业提出了一个关键问题:算法训练的终点在哪里,对用户家庭隐私的侵犯又从哪里开始?
Meta 长期以来一直坚称其智能眼镜是基于“隐私设计”(privacy by design)构建的。诸如摄像头录制时亮起的小型 LED 灯等功能,旨在向外界发出正在录制的信号。但对于保护用户免受公司内部数据处理行为的影响,那盏灯几乎无济于事。
诉讼认为,Meta 未能充分告知用户,他们的私人录音和录像可能会受到第三方承包商的审查。虽然许多科技公司在服务条款中包含关于“改进服务”的宽泛语言,但法律挑战指出,任何理性的消费者都不会预料到他们最亲密的时刻会成为肯尼亚劳动力训练集的一部分。
肯尼亚分包商的参与是 AI 行业的一个反复出现的主题。许多硅谷巨头将数据标注外包给劳动力成本较低的地区。这些工人通常执行高压任务——如内容审核或数据打标——而获得的工资仅为美国或欧洲水平的一小部分。在此案例中,诉讼指控这些工人不仅薪酬过低,而且在缺乏足够的心理支持或明确伦理界限的情况下,被迫观看高度不当且敏感的材料。
随着智能眼镜市场的增长,不同的制造商在数据隐私方面采取了不同的方法。下表说明了当前行业标准在处理敏感画面方面的对比。
| 功能 | Meta Ray-Ban(当前指控) | 行业标准(最佳实践) | 隐私导向的替代方案 |
|---|---|---|---|
| 数据处理 | 基于云端并有人工审查 | 设备端(边缘)处理 | 仅本地存储 |
| 用户同意 | 捆绑在服务条款中 | 针对人工审查的细粒度选择性加入 | 默认不上传云端 |
| 视觉指示器 | 小型 LED(易被遮挡) | 明亮且不可屏蔽的指示灯 | 物理镜头快门 |
| 数据匿名化 | 据称不足 | 自动面部/PII 模糊处理 | 静态数据全加密 |
如果您拥有一副 AI 驱动的智能眼镜,当前的法律环境提醒您要主动管理自己的数字足迹。以下是您可以采取的降低隐私风险的步骤:
这起诉讼代表了 Meta 在可穿戴领域雄心的重大障碍。随着公司推向由增强现实(AR)和元宇宙定义的未来,用户的信任是其最有价值的筹码。如果消费者觉得他们的眼镜不仅是自己的工具,还是公司窥探其私生活的窗口,这些技术的普及可能会无限期停滞。
法律程序预计将集中在 Meta 的披露是否足够透明,以及公司是否采取了“合理步骤”来保护用户数据免受人为窥视。目前,此案为整个 AI 行业敲响了警钟:创新不能以牺牲基本隐私权为代价。
资料来源


