在物理世界中,我们绝不会容忍陌生人带着一种旨在看穿我们衣服的设备在购物中心跟踪我们。我们会立即将其识别为对尊严的系统性侵犯和显而易见的犯罪。然而,在数字领域,“脱衣”(nudify)工具——即可以从照片中以数字方式去除衣物的 AI 驱动应用程序——一直运行在危险的法律灰色地带,通常被贬低为仅需受害者个人解决的局部问题。
监管模糊的时代即将结束。本周,荷兰国家警察局、检察机关(Openbaar Ministerie)以及多个荷兰当局发表联合声明,呼吁在欧洲范围内全面禁止这些工具。作为一名多年调查个人数据如何被武器化的数字侦探,我认为这不仅是政策的转变,更是我们应对数字伤害方式的根本性重塑。
多年来,针对非自愿深度伪造色情内容的法律回应一直是反应式的。当局会等待受害者站出来,然后尝试追踪使用该工具的个人犯罪者。这就像是在油轮仍在漏油时,试图用一块海绵清理溢油。这种做法效率低下,且将创伤的全部负担压在了受害者身上。
荷兰当局现在提议改变监管格局。通过呼吁禁止工具本身,他们正瞄准伤害的源头。从合规角度来看,这不仅将责任从终端用户转移到了开发者和托管平台身上。如果提供该工具是违法的,那么在第一个像素被渲染之前,系统性风险就已经得到了缓解。在实践中,这意味着仅仅存在旨在为个人“脱衣”的服务就构成了法定违规,无论其如何被使用。
荷兰提案中最细致入微的方面之一是对“同意”辩护的拒绝。通常在隐私法中,镜像是合法数据处理的关键。如果您同意使用您的数据,公司通常就没问题了。然而,荷兰的声明辩称,即使被描绘的个人据称表示同意,也应禁止“脱衣”工具。
为什么要采取如此严厉的措施?因为这些工具将人体视为一种“有毒资产”——一种可以被操纵和利用的东西,而不考虑长期的名誉或心理后果。在监管语境下,当局认为滥用的可能性极高,且技术侵入性极强,以至于它属于个人同意无法凌驾于集体保护需求之上的范畴。这是一种承认:某些技术本质上与基本人权不相容。
为了使这一禁令具有跨境约束力,荷兰正寄希望于欧盟《人工智能法案》(EU AI Act)。这项具有里程碑意义的立法根据风险对 AI 系统进行分类。荷兰的提案建议将“脱衣”工具归类为“不可接受的风险”,与政府的实时生物识别监控或社会评分等技术并列。
如果该提案被采纳,它将提供域外效力,这意味着任何向欧洲公民提供此类服务的公司——无论其总部设在何处——都将面临巨额罚款。对于企业来说,这是一个明确的信号:合规不再仅仅是一个清单;它是必须建立在道德基础上的房屋基石。忽视这些风向转变的公司不仅是不合规,它们还在断层线上构建业务模式。
当我调查这类工具时,我经常发现一些蛛丝马迹指向隐藏在层层壳公司背后的不透明开发者。这些平台经常声称它们仅仅提供“艺术工具”或“娱乐”。然而,当你查看元数据和营销策略时,其意图显而易见。它们在未经我们知情的情况下绘制我们的生活和身体,创造了一个没有任何照片能免于被篡改的世界。
我最近调查了一个案例,一名高中生的社交媒体资料被用来创建深度伪造图像。学校的回应是告诉学生“发布内容要小心”。这在数字层面相当于告诉某人在洪水期间穿雨衣。荷兰当局终于发声:我们不应该生活在洪水中。通过禁止工具,我们正在筑起大坝。
对于科技公司和开发者来说,传达的信息是透明度和主动风险管理。如果您的软件使用生成式 AI 来操纵人体图像,您现在就需要审计您的功能。等待正式传唤是一场高风险的赌博,可能会导致品牌系统性的失败。
对于个人来说,这一进展是迈向夺回数字自主权的赋能一步。它标志着法律终于跟上了 AI 驱动骚扰的复杂现实。在我们等待欧洲议会对荷兰提案进行权衡时,您可以采取一些切实可行的步骤来保护您的数字足迹。
最终,荷兰的联合声明提醒我们,隐私不仅是一个合规复选框;它是一项基本人权。通过将这些工具视为数字危害,我们可以开始为每个人建立一个更安全、更受尊重的互联网。
来源:
免责声明:本文仅用于信息和新闻目的,不构成正式法律建议。如果您面临有关数字隐私或 AI 的法律问题,请咨询合格的法律专业人士。


