印度政府已大幅收紧其数字治理框架,发布了对其2021年《信息技术(中介机构指南和数字媒体道德规范)规则》的全面修订通知。新规定要求社交媒体平台在收到删除请求后,必须在短短三小时内删除深度伪造内容和其他形式的非法内容,这比之前的36小时截止期限大幅缩短。这些新规则于2026年2月20日生效,给主要的科技中介机构带来了前所未有的速度和技术尽职调查的负担,以遏制合成媒体的兴起。
最直接的影响是内容删除的时间框架被严重压缩。根据修订后的规则,平台必须以极快的速度应对法律挑战。如果内容被主管政府部门或法院命令标记为非法,中介机构必须确保在三小时内将其删除或禁用访问。这一要求涵盖了广泛的非法材料,包括与严重犯罪和欺骗性冒充相关的内容。
然而,对于最敏感的违规行为,规则规定了更紧迫的截止期限。对于包含未经同意的私密图像(NCII)的内容,例如深度伪造的裸体,或暴露私人区域的材料,删除期限缩短至仅两小时。这反映了监管机构认识到,在性剥削案件中,每一分钟的暴露都可能对受害者造成严重且持久的创伤。
政府不仅关注迅速删除,还关注防止合成媒体的欺骗性传播。印度法律首次为“合成生成信息”(SGI)提供了正式的技术定义。这种SGI,包括看起来与真人或事件难以区分的AI生成的音频、视频和视觉内容,现在必须遵守强制性披露和可追溯性要求。
中介机构现在必须确保所有SGI都得到清晰且醒目的标注。此举旨在立即提醒用户他们正在查看的内容是合成性质的。此外,促成SGI创建或传播的平台,在技术可行的情况下,被要求在文件本身嵌入持久性的元数据或溯源标记。这种数字指纹允许调查人员和监管机构将内容追溯到其源头,即使该文件被复制并跨不同平台共享。至关重要的是,规则明确禁止删除或压制这些AI标注或相关的元数据。
对于主要的社交媒体平台(被称为“重要社交媒体中介机构”),合规要求是广泛的。新规则将尽职调查从被动的警务模式提升为预防性模式。
平台关键尽职调查要求:
推动这一监管加速的动力是深度伪造内容被武器化用于欺诈、错误信息、政治操纵和严重的个人骚扰的威胁日益增加,这一担忧在2025年期间加剧。不合规的风险比以往任何时候都高。
历史上,社交媒体平台一直受到“安全港”条款(《信息技术法》第79条)的保护,该条款使其免于承担用户发布内容的责任。新的修订引入了一个关键条件:如果中介机构未能履行《信息技术规则》的义务——例如,故意允许未标注的SGI传播,或错过了新的缩短的删除窗口——它们将面临失去其“安全港”保护的风险。这种法律漏洞可能导致平台被起诉,如同它们自己就是内容的创作者一样,这代表着印度市场对大型科技公司的责任转移。
随着这些新规则于2026年2月20日生效,印度的数字生态系统将迎来结构性变化。
对于用户和创作者:
对于技术创新者和平台:
印度的新框架代表了世界上对深度伪造内容最积极的监管回应之一,建立了一个操作基准,将考验全球社交媒体巨头的技术能力和资源部署。



