人工智能

包括国际刑警组织和欧盟委员会在内的100多个组织要求全球禁止AI裸体化工具

在Grok深度伪造危机之后,包括欧盟委员会和国际刑警组织在内的100多个组织要求立即在全球范围内禁止AI裸体化工具。
包括国际刑警组织和欧盟委员会在内的100多个组织要求全球禁止AI裸体化工具

一个由100多个组织组成的强大全球联盟,其中包括执法机构、人权倡导者和监管机构,呼吁立即在全球范围内禁止AI裸体化工具。这个史无前例的联盟,包括欧盟委员会国际刑警组织国际特赦组织和救助儿童会,于2026年2月10日发布了一份联合声明,题为“统一全球声音:对‘Nudify’说不”,宣称这些技术“没有任何好的用途”,必须被明确取缔。

此次全球动员发生之际,正是生成式AI被武器化以创建非自愿私密图像的现象急剧且可怕地上升之时,而围绕埃隆·马斯克的AI聊天机器人Grok的争议则成为了一个关键的转折点。

全球联盟及其统一要求

该联盟由107个组织和专家组成,成员涵盖Safe Online和互联网观察基金会等致力于人道主义和儿童保护的团体,以及备受关注的国际机构。他们的统一信息集中于立即采取全球立法应对措施,敦促各国政府和立法者在未来两年内实施监管。

此次呼吁的核心是将这些工具归类为对人类尊严和儿童安全的不可接受的威胁,强调从照片中数字化去除衣物的功能本质上是滥用的。

危机背后的数据:增长了1,325%

该联盟的紧急呼吁基于令人警醒的统计数据,这些数据说明了该技术在现实世界中具有破坏性的影响。在2023年至2024年间,经证实的AI生成的儿童性虐待图像数量惊人地增加了1,325%。这些工具能够从普通照片中创建出露骨的、非自愿的图像,通常以女性和女孩为目标,从而为剥削、胁迫和勒索创造了一个新的、快速加速的媒介。

Grok催化剂:对平台问责制的考验

最近围绕xAI的Grok聊天机器人的风波是联盟发表声明的直接导火索。关于Grok被用来生成包括未成年人在内的真人的非自愿性化深度伪造图像的报道于2025年8月开始流传。估计显示,Grok在短时间内可能生成了多达三百万张非自愿裸体图像,清楚地表明了该技术的滥用规模。

这一事件凸显了平台问责制的必要性。该联盟呼吁欧盟委员会利用《数字服务法案 (DSA)》的全部权力,强制在线平台减轻系统性风险、迅速删除非法内容,并限制能够生成非自愿私密图像的功能。

争取在《欧盟人工智能法案》中明确立法的斗争

尽管《欧盟人工智能法案》被誉为世界上第一个全面的人工智能法律框架,但目前的措辞并未明确将AI裸体化工具列为被禁止的行为。这一立法空白现在是激烈政治压力的焦点。

由57名欧洲议会议员(MEP)组成的一个跨党派团体正在积极敦促欧盟委员会确认,未经他人同意用于“脱衣”的应用确实应在《人工智能法案》下被禁止,理由是它们侵犯了基本权利。立法者正在推动将针对性化深度伪造的具体禁令纳入立法,预计妥协文本将于2026年2月下旬出台。该联盟的介入极大地支持了这一政治努力,要求欧盟委员会正式将这些应用程序归类为被禁止的行为。

全球立法影响

将这些工具定为非法行为的运动正在全球范围内获得关注。例如,英国已经采取了果断的法律措施。经过数月的宣传活动,英国政府于2025年12月宣布计划彻底禁止AI裸体化应用程序。此外,根据《2025年数据(使用和访问)法案》,一项关于创建非自愿性化深度伪造的罪行已于2026年2月6日生效。

这一国际立法活动标志着一个重大转变,即从起诉非法内容的传播转向将滥用工具的创建本身定为犯罪。

科技用户和开发者的实用启示

对于任何参与生成式AI的人来说,国际社会发出的信息是明确的:法律和社会对AI裸体化工具的容忍度正在迅速消失。

利益相关者 关键法律和道德启示
AI开发者/平台所有者 积极实施技术保障措施,防止生成非自愿私密图像。预计《欧盟人工智能法案》和《数字服务法案》将对促成此类滥用的工具施加严格、明确的禁令和责任。
个人用户 在多个司法管辖区(例如英国),创建非自愿性化深度伪造图像现已被明确认定为非法,并受到刑事处罚。即使是访问或要求创建此类图像也带有重大的法律风险。
儿童保护/人权组织 继续游说,要求将AI裸体化明确归类为所有主要国际立法(包括《欧盟人工智能法案》的最终文本)中的“被禁止行为”。

现在的重点正转向执法,并确保新法律的范围足够广泛,能够涵盖所有形式的AI生成的非自愿性内容,无论使用何种应用或平台。

bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户