Intelligenza artificiale

L'India Impone la Rimozione di Deepfake Entro 3 Ore: Le Nuove Regole IT Richiedono Azione Rapida delle Piattaforme ed Etichettatura dei Contenuti AI

Le nuove Regole IT indiane impongono alle piattaforme di social media di rimuovere deepfake e contenuti illegali entro 3 ore, di applicare l'etichettatura AI e di incorporare metadati tracciabili.
L'India Impone la Rimozione di Deepfake Entro 3 Ore: Le Nuove Regole IT Richiedono Azione Rapida delle Piattaforme ed Etichettatura dei Contenuti AI

Il governo indiano ha significativamente rafforzato il suo quadro di governance digitale, notificando emendamenti radicali alle sue Regole sulla Tecnologia dell'Informazione (Linee guida per gli Intermediari e Codice Etico per i Media Digitali) del 2021. Il nuovo mandato richiede alle piattaforme di social media di rimuovere i deepfake e altre forme di contenuto illecito entro sole tre ore dalla ricezione di una richiesta di rimozione, una riduzione drastica rispetto al precedente termine di 36 ore. Con effetto dal 20 febbraio 2026, queste nuove regole impongono un onere senza precedenti in termini di rapidità e diligenza tecnica sui principali intermediari tecnologici per frenare l'aumento dei media sintetici.

Il Termine di 180 Minuti: Un Cambiamento Drastico nelle Rimozioni

Il cambiamento con l'impatto più immediato è il lasso di tempo gravemente compresso per la rimozione dei contenuti. Secondo le regole modificate, le piattaforme devono agire con rapidità fulminea in risposta a contestazioni legali. Laddove un contenuto venga segnalato come illegale da un'autorità governativa competente o da un ordine del tribunale, gli intermediari devono garantirne la rimozione o disabilitare l'accesso entro tre ore. Questo mandato comprende un'ampia gamma di materiale illecito, inclusi contenuti collegati a crimini gravi e a imitazioni ingannevoli.

Tuttavia, le regole impongono un termine ancora più stretto e urgente per le violazioni più sensibili. Per i contenuti che presentano immagini intime non consensuali (NCII), come la nudità deepfake, o materiale che espone aree private, il termine di rimozione è ridotto a sole due ore. Ciò riflette un riconoscimento normativo del fatto che, nei casi di sfruttamento sessuale, ogni minuto di esposizione può causare un trauma grave e duraturo alla vittima.

Oltre la Rimozione: Etichettatura Obbligatoria e Provenienza Digitale

Il governo non si è concentrato solo sulla rimozione rapida, ma anche sulla prevenzione della diffusione ingannevole dei media sintetici. Per la prima volta, la legge indiana fornisce una definizione formale e tecnica di “Informazione Generata Sinteticamente” (SGI). Questa SGI, che include contenuti audio, video e visivi generati dall'AI che appaiono indistinguibili da una persona o un evento reale, è ora soggetta a requisiti di divulgazione e tracciabilità obbligatori.

Gli intermediari devono ora garantire che tutte le SGI siano etichettate in modo chiaro ed evidente. Questo è progettato per avvisare immediatamente gli utenti della natura sintetica del contenuto che stanno visualizzando. Inoltre, le piattaforme che consentono la creazione o la diffusione di SGI sono tenute a incorporare metadati o marcatori di provenienza persistenti nel file stesso, ove tecnicamente fattibile. Questa impronta digitale consente agli investigatori e ai regolatori di tracciare il contenuto fino al suo punto di origine, anche se il file viene copiato e condiviso su piattaforme diverse. Crucialmente, le regole vietano esplicitamente la rimozione o la soppressione di queste etichette AI o dei metadati associati.

La Nuova Checklist di Dovuta Diligenza per le Piattaforme

Per le principali piattaforme di social media—denominate Intermediari Significativi di Social Media—i requisiti di conformità sono estesi. Le nuove regole elevano la dovuta diligenza da un modello di polizia reattivo a uno preventivo.

Principali Requisiti di Dovuta Diligenza per le Piattaforme:

  1. Dichiarazione dell'Utente: Prima che un utente pubblichi un contenuto, la piattaforma deve richiedergli di dichiarare esplicitamente se il contenuto è stato generato o alterato utilizzando l'intelligenza artificiale.
  2. Verifica Tecnica: Le piattaforme non possono semplicemente affidarsi all'autodichiarazione. Sono legalmente obbligate a impiegare “misure tecniche ragionevoli e appropriate,” inclusi strumenti automatizzati, per verificare in modo incrociato l'affermazione dell'utente e rilevare contenuti deepfake illegali.
  3. Prevenzione Proattiva: Le piattaforme devono utilizzare strumenti automatizzati per prevenire attivamente la promozione o l'amplificazione di categorie di contenuti AI illegali, ingannevoli e sessualmente abusivi, come materiale pedopornografico e immagini non consensuali.

Perché l'Urgenza? La Posta in Gioco della Safe Harbour

La forza trainante dietro questa accelerazione normativa è la crescente minaccia che i deepfake vengano usati come arma per frodi, disinformazione, manipolazione politica e gravi molestie personali, una preoccupazione che si è intensificata per tutto il 2025. La posta in gioco per la non conformità è più alta che mai.

Storicamente, le piattaforme di social media sono state protette dalle disposizioni di 'Safe Harbour' (Sezione 79 dell'IT Act), che le schermano dalla responsabilità per i contenuti pubblicati dai loro utenti. I nuovi emendamenti introducono una condizione critica: se un intermediario non riesce a soddisfare gli obblighi delle Regole IT—ad esempio, permettendo consapevolmente la diffusione di SGI non etichettate o non rispettando le finestre di rimozione appena compresse—rischia di perdere la sua protezione Safe Harbour. Questa vulnerabilità legale potrebbe aprire la strada a citazioni in giudizio per le piattaforme come se fossero loro stesse le creatrici del contenuto, rappresentando un significativo spostamento di responsabilità per le Big Tech nel mercato indiano.

Punti Chiave Pratici per Creatori e Utenti

Con l'entrata in vigore di queste nuove regole il 20 febbraio 2026, l'ecosistema digitale in India è destinato a un cambiamento strutturale.

Per l'Utente e il Creatore:

  • Dichiara i Tuoi Contenuti AI: Se utilizzi uno strumento di AI generativa per creare o alterare significativamente audio, video o immagini, ti verrà probabilmente richiesto di dichiararlo prima di pubblicare sulle principali piattaforme social.
  • Comprendi le Esenzioni: L'editing di routine—come la correzione del colore, la riduzione del rumore o la formattazione minore che non distorce materialmente il significato originale—è generalmente esente dalla classificazione SGI.
  • Segnala Rapidamente: Se incontri contenuti dannosi, specialmente immagini intime non consensuali o un deepfake di imitazione ingannevole, segnalalo immediatamente al responsabile dei reclami della piattaforma. Con il tempo di risposta per i contenuti sensibili ora fissato a due ore, la velocità è di vitale importanza.

Per Innovatori Tecnici e Piattaforme:

  • Conformità Tramite Progettazione (Compliance by Design): Gli sviluppatori di strumenti AI e piattaforme di contenuti che operano in India devono integrare l'etichettatura obbligatoria e l'incorporazione dei metadati nella progettazione del loro prodotto fin dall'inizio.
  • Automatizza la Moderazione: Il passaggio da 36 ore a due o tre ore richiede un massivo aumento degli strumenti automatizzati di rilevamento e moderazione, supportato da un personale di moderazione dei contenuti umano significativamente aumentato per gestire i casi complessi o contestati entro il ristretto lasso di tempo.

Il nuovo quadro normativo indiano rappresenta una delle risposte normative più aggressive al mondo nei confronti dei deepfake, stabilendo un benchmark operativo che metterà alla prova la capacità tecnica e l'impiego di risorse dei giganti globali dei social media.

bg
bg
bg

Ci vediamo dall'altra parte.

La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.

/ Creare un account gratuito