行业新闻

西班牙对 X、Meta 和 TikTok 展开调查,涉及 AI 生成的儿童虐待内容

西班牙调查 X、Meta 和 TikTok 涉及 AI 生成的儿童虐待内容,与此同时,欧盟根据《数字服务法》加强了科技平台的责任追究。
西班牙对 X、Meta 和 TikTok 展开调查,涉及 AI 生成的儿童虐待内容

西班牙对科技巨头采取行动

西班牙已指示检察官对社交媒体巨头 X(前身为 Twitter)、Meta 和 TikTok 展开调查,指控这些平台传播 AI 生成的儿童性虐待内容。这标志着欧洲在追究科技公司对平台上出现的有害和非法内容责任方面的努力显著升级。

随着欧盟各地的监管机构加强对科技公司内容审核方式的审查,特别是由于人工智能使得创建逼真且合成的图像和视频变得更加容易,这一举措应运而生。西班牙的决定表明,在保护在线儿童方面,政府不再愿意等待平台进行自我监管。

AI 生成虐待内容日益增长的威胁

人工智能改变了在线安全威胁的格局。现代生成式 AI 工具可以创建照片级的图像和视频,这些内容越来越难以与真实内容区分开来。虽然这些技术在娱乐、设计和教育方面有合法用途,但也为在不直接伤害儿童的情况下制作儿童性虐待内容开辟了一条令人不安的新途径。

然而,专家和执法机构强调,此类内容仍然具有深度危害性。它使儿童性化正常化,可能被用于诱导真实受害者,并由于合成内容充斥检测系统,使调查人员更难识别和营救真实的受害者。无论其来源如何,此类内容的存在都延续了剥削儿童的市场。

西班牙的调查重点在于 X、Meta 和 TikTok 是否有足够的保障措施来检测和删除这些 AI 生成的内容,以及它们对平台上出现的此类内容报告的响应是否足够及时。

《数字服务法》下的法律框架

西班牙的行动是在欧盟《数字服务法》(DSA) 的背景下进行的,该法案于 2024 年全面生效。这项具有里程碑意义的立法要求在线平台对非法内容负责,并实施强大的系统来识别、删除和防止有害内容的传播。

根据 DSA,超大型在线平台——即在欧盟拥有超过 4500 万月活跃用户的平台——面临特殊义务。它们必须进行风险评估,实施缓解措施,并接受独立审计。X、Meta(运营 Facebook、Instagram 和 WhatsApp)以及 TikTok 都属于这一类别。

不遵守 DSA 要求可能会导致高达公司全球年收入 6% 的罚款。对于 2024 年报告收入超过 1300 亿美元的 Meta 来说,这可能转化为数十亿美元的罚款。无论是在财务上还是声誉上,代价都是巨大的。

平台的应对措施

被西班牙调查瞄准的三家公司都公开承诺打击儿童性虐待内容,尽管它们的方法和记录各不相同。

Meta 在检测技术方面投入了大量资金,结合使用了 AI 驱动的扫描工具和人工审核员。该公司每年向美国国家失踪与受剥削儿童中心 (NCMEC) 报告数百万条儿童剥削内容。然而,批评者认为 Meta 的系统仍然允许过多的有害内容流出,特别是在其加密消息服务上。

X 在埃隆·马斯克的所有权下,在内容审核方面面临着越来越多的审查。该平台在 2023 年大幅缩减了其信任与安全团队,引发了对其检测和删除非法内容能力的担忧。虽然 X 坚称对儿童性虐待内容零容忍,但一些研究机构记录了举报内容在很长一段时间内仍可访问的情况。

TikTok 强调了其自动化检测与人工审核的结合,以及与儿童安全组织的合作。该平台还实施了旨在保护年轻用户的功能,例如为未成年人账户设置默认隐私设置。尽管如此,每天上传的海量内容(数亿个视频)对任何审核系统都构成了巨大挑战。

这对科技监管意味着什么

西班牙的调查代表了政府在处理平台责任方式上的更广泛转变。监管机构不再将社交媒体公司视为中立的中介,而是越来越多地将它们视为对其托管和放大的内容负有编辑责任的出版商。

此案可能会树立重要的先例,原因有几点。首先,它专门针对 AI 生成的内容,这是一个监管和执法实践仍在不断发展的领域。其次,它表明即使欧盟委员会正在进行自己的 DSA 执法行动,欧盟各成员国也愿意独立进行调查。

调查还突显了内容审核核心的一种矛盾:平衡用户隐私与安全。端到端加密保护用户通信免受监视,但也使得检测非法内容变得更加困难。在防止虐待的同时寻找保护隐私的解决方案,仍然是科技政策中最具挑战性的问题之一。

对用户和家长的实际影响

在平台和监管机构努力解决这些问题的同时,家长和用户可以采取以下步骤来增强在线安全:

启用内置安全功能。 这三个平台都提供家长控制、受限模式和内容过滤器。花时间为年轻用户进行适当的设置。

保持公开沟通。 与孩子讨论他们在网上遇到的情况,并创造一个让他们能够放心报告令人担忧的内容或互动的环境。

立即举报可疑内容。 所有主要平台都有举报机制。请使用它们。举报有助于训练检测系统,并提醒人工审核员注意有问题的内容。

随时了解平台政策。 公司会定期更新其安全功能和内容政策。查看这些更改有助于您了解已有的保护措施。

考虑第三方监控工具。 各种家长控制应用程序可以提供额外的保护层,并提高孩子使用社交媒体的透明度。

下一步动向

西班牙检察官现在将收集证据,以确定这些平台是否违反了西班牙法律或欧盟法规。这一过程可能需要数月甚至数年。如果调查人员发现违规行为,这些公司可能会面临巨额罚款、更改做法的命令,或两者兼而有之。

与此同时,其他欧洲国家也在密切关注。如果西班牙的调查发现系统性故障,其他地方也可能展开类似的调查。负责对超大型平台执行 DSA 的欧盟委员会也可能根据西班牙的调查结果加强审查。

对于更广泛的科技行业来说,此案强调了 AI 生成的内容将受到与传统非法内容同样严肃的处理。随着生成式 AI 能力的不断进步,平台将需要大量投入检测技术,以识别合成内容并将其与 AI 的合法用途区分开来。

调查还提出了关于内容审核本身未来的问题。面对主要平台上每天发布的数十亿条内容,AI 和人工审核员的任何组合真的能跟上节奏吗?一些专家认为,为了充分应对这些挑战,可能需要对平台的运营方式进行根本性改变,例如限制未经审核内容的算法放大。

资料来源

  • European Commission official documentation on the Digital Services Act
  • Meta Transparency Center reports on child safety measures
  • TikTok Safety Center policy documentation
  • X Safety Center guidelines and enforcement reports
  • National Center for Missing and Exploited Children (NCMEC) reporting statistics
  • Technology policy research from Stanford Internet Observatory
  • European Union regulatory enforcement announcements
bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户