Nel mondo fisico, non tollereremmo mai che un estraneo ci seguisse in un centro commerciale con un dispositivo progettato per vedere attraverso i nostri vestiti. Lo riconosceremmo istantaneamente come una violazione sistemica della dignità e un crimine palese. Eppure, nel regno digitale, gli strumenti "nudify" — applicazioni basate sull'intelligenza artificiale in grado di rimuovere digitalmente i vestiti dalle foto — hanno operato in una precaria zona grigia legale, spesso liquidati come un problema di nicchia che le singole vittime avrebbero dovuto risolvere da sole.
Quell'era di ambiguità normativa sta giungendo al termine. Con una mossa significativa questa settimana, la Polizia Nazionale olandese, il Pubblico Ministero (Openbaar Ministerie) e varie autorità dei Paesi Bassi hanno rilasciato una dichiarazione congiunta chiedendo un divieto europeo assoluto su questi strumenti. Come investigatore digitale che ha trascorso anni a indagare su come i dati personali vengano usati come armi, vedo questo non solo come un cambiamento di rotta politica, ma come una riprogettazione fondamentale del modo in cui affrontiamo il danno digitale.
Per anni, la risposta legale alla pornografia deepfake non consensuale è stata reattiva. Le autorità aspettavano che una vittima si facesse avanti, per poi tentare di rintracciare il singolo colpevole che aveva utilizzato lo strumento. È come cercare di ripulire una fuoriuscita di petrolio con una sola spugna mentre la nave cisterna sta ancora perdendo. È inefficiente e scarica l'intero peso del trauma sulla vittima.
Le autorità olandesi propongono ora un cambiamento nel panorama normativo. Chiedendo il divieto degli strumenti stessi, stanno colpendo la fonte del danno. Dal punto di vista della conformità, questo sposta la responsabilità dall'utente finale agli sviluppatori e alle piattaforme di hosting. Se la fornitura dello strumento è illegale, il rischio sistemico viene mitigato prima ancora che il primo pixel venga elaborato. In pratica, ciò significa che la mera esistenza di un servizio progettato per "spogliare" le persone diventa una violazione statutaria, indipendentemente da come viene utilizzato.
Uno degli aspetti più complessi della proposta olandese è il rifiuto della difesa basata sul "consenso". In genere, nel diritto alla privacy, il consenso è la chiave che apre la porta al trattamento lecito dei dati. Se accetti che i tuoi dati vengano utilizzati, l'azienda è solitamente in regola. Tuttavia, la dichiarazione olandese sostiene che gli strumenti nudify dovrebbero essere proibiti anche se l'individuo ritratto avesse presumibilmente acconsentito.
Perché un approccio così rigoroso? Perché questi strumenti trattano il corpo umano come un asset tossico — qualcosa che può essere manipolato e sfruttato senza riguardo per le ricadute reputazionali o psicologiche a lungo termine. In un contesto normativo, le autorità sostengono che il potenziale di abuso sia così elevato, e la tecnologia così invasiva, da rientrare in una categoria in cui il consenso individuale non può prevalere sulla necessità collettiva di protezione. È il riconoscimento che alcune tecnologie sono intrinsecamente incompatibili con i diritti umani fondamentali.
Per rendere questo divieto vincolante oltre i confini nazionali, i Paesi Bassi guardano al Regolamento sull'Intelligenza Artificiale dell'UE (EU AI Act). Questa legislazione storica categorizza i sistemi di IA in base al rischio. La proposta olandese suggerisce che gli strumenti nudify dovrebbero essere classificati come "Rischio Inaccettabile", insieme a tecnologie come la sorveglianza biometrica in tempo reale o il social scoring da parte dei governi.
Se questa proposta venisse adottata, fornirebbe una portata extraterritoriale, il che significa che qualsiasi azienda che offra questi servizi ai cittadini europei — indipendentemente dalla sede legale della società — affronterebbe sanzioni massicce. Per le imprese, questo è un segnale chiaro: la conformità non è più solo una lista di controllo; è la fondamenta di una casa che deve essere costruita sull'etica. Le aziende che ignorano questi venti di cambiamento non sono solo non conformi; stanno costruendo i loro modelli di business su una linea di faglia.
Quando indago su questo tipo di strumenti, trovo spesso una scia di indizi che riportano a sviluppatori opachi che si nascondono dietro strati di società di comodo. Queste piattaforme spesso sostengono di fornire meramente "strumenti artistici" o "intrattenimento". Tuttavia, quando si guardano i metadati e le strategie di marketing, l'intento è chiaro. Stanno mappando le nostre vite e i nostri corpi a nostra insaputa, creando un mondo in cui nessuna foto è al sicuro da alterazioni.
Recentemente ho seguito un caso in cui il profilo social di uno studente di scuola superiore è stato utilizzato per creare immagini deepfake. La risposta della scuola è stata quella di dire agli studenti di "stare attenti a ciò che pubblicate". Questo è l'equivalente digitale di dire a qualcuno di indossare un impermeabile durante un'alluvione. Le autorità olandesi stanno finalmente dicendo che non dovremmo essere costretti a vivere in un'alluvione. Vietando gli strumenti, stiamo costruendo una diga.
Per le aziende tecnologiche e gli sviluppatori, il messaggio è di trasparenza e gestione proattiva del rischio. Se il vostro software utilizza l'IA generativa per manipolare immagini umane, dovete verificare le vostre funzionalità ora. Aspettare una citazione formale è una scommessa ad alto rischio che potrebbe portare al fallimento sistemico del vostro marchio.
Per i privati, questo sviluppo è un passo importante verso la riconquista dell'autonomia digitale. Segnala che la legge sta finalmente recuperando terreno rispetto alla sofisticata realtà delle molestie guidate dall'IA. Mentre aspettiamo che il Parlamento Europeo si esprima sulla proposta olandese, ci sono passi concreti che potete intraprendere per proteggere la vostra impronta digitale.
In definitiva, la dichiarazione congiunta olandese ci ricorda che la privacy non è solo una casella da spuntare per la conformità; è un diritto umano fondamentale. Trattando questi strumenti come i pericoli digitali che sono, possiamo iniziare a costruire un internet più sicuro e rispettoso per tutti.
Fonti:
Disclaimer: Questo articolo è solo a scopo informativo e giornalistico e non costituisce consulenza legale formale. Se state affrontando un problema legale riguardante la privacy digitale o l'IA, consultate un professionista legale qualificato.



La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.
/ Creare un account gratuito