Legale e Compliance

Eliminare la fonte: perché i Paesi Bassi spingono per un divieto europeo degli strumenti AI ‘Nudify’

Le autorità olandesi chiedono un divieto europeo degli strumenti AI nudify ai sensi dell'EU AI Act, spostando l'attenzione legale dai singoli utenti agli sviluppatori degli strumenti.
Eliminare la fonte: perché i Paesi Bassi spingono per un divieto europeo degli strumenti AI ‘Nudify’

Nel mondo fisico, non tollereremmo mai che un estraneo ci seguisse in un centro commerciale con un dispositivo progettato per vedere attraverso i nostri vestiti. Lo riconosceremmo istantaneamente come una violazione sistemica della dignità e un crimine palese. Eppure, nel regno digitale, gli strumenti "nudify" — applicazioni basate sull'intelligenza artificiale in grado di rimuovere digitalmente i vestiti dalle foto — hanno operato in una precaria zona grigia legale, spesso liquidati come un problema di nicchia che le singole vittime avrebbero dovuto risolvere da sole.

Quell'era di ambiguità normativa sta giungendo al termine. Con una mossa significativa questa settimana, la Polizia Nazionale olandese, il Pubblico Ministero (Openbaar Ministerie) e varie autorità dei Paesi Bassi hanno rilasciato una dichiarazione congiunta chiedendo un divieto europeo assoluto su questi strumenti. Come investigatore digitale che ha trascorso anni a indagare su come i dati personali vengano usati come armi, vedo questo non solo come un cambiamento di rotta politica, ma come una riprogettazione fondamentale del modo in cui affrontiamo il danno digitale.

Risalire la corrente: colpire la fonte, non solo l'utente

Per anni, la risposta legale alla pornografia deepfake non consensuale è stata reattiva. Le autorità aspettavano che una vittima si facesse avanti, per poi tentare di rintracciare il singolo colpevole che aveva utilizzato lo strumento. È come cercare di ripulire una fuoriuscita di petrolio con una sola spugna mentre la nave cisterna sta ancora perdendo. È inefficiente e scarica l'intero peso del trauma sulla vittima.

Le autorità olandesi propongono ora un cambiamento nel panorama normativo. Chiedendo il divieto degli strumenti stessi, stanno colpendo la fonte del danno. Dal punto di vista della conformità, questo sposta la responsabilità dall'utente finale agli sviluppatori e alle piattaforme di hosting. Se la fornitura dello strumento è illegale, il rischio sistemico viene mitigato prima ancora che il primo pixel venga elaborato. In pratica, ciò significa che la mera esistenza di un servizio progettato per "spogliare" le persone diventa una violazione statutaria, indipendentemente da come viene utilizzato.

Il paradosso del consenso

Uno degli aspetti più complessi della proposta olandese è il rifiuto della difesa basata sul "consenso". In genere, nel diritto alla privacy, il consenso è la chiave che apre la porta al trattamento lecito dei dati. Se accetti che i tuoi dati vengano utilizzati, l'azienda è solitamente in regola. Tuttavia, la dichiarazione olandese sostiene che gli strumenti nudify dovrebbero essere proibiti anche se l'individuo ritratto avesse presumibilmente acconsentito.

Perché un approccio così rigoroso? Perché questi strumenti trattano il corpo umano come un asset tossico — qualcosa che può essere manipolato e sfruttato senza riguardo per le ricadute reputazionali o psicologiche a lungo termine. In un contesto normativo, le autorità sostengono che il potenziale di abuso sia così elevato, e la tecnologia così invasiva, da rientrare in una categoria in cui il consenso individuale non può prevalere sulla necessità collettiva di protezione. È il riconoscimento che alcune tecnologie sono intrinsecamente incompatibili con i diritti umani fondamentali.

L'EU AI Act come bussola normativa

Per rendere questo divieto vincolante oltre i confini nazionali, i Paesi Bassi guardano al Regolamento sull'Intelligenza Artificiale dell'UE (EU AI Act). Questa legislazione storica categorizza i sistemi di IA in base al rischio. La proposta olandese suggerisce che gli strumenti nudify dovrebbero essere classificati come "Rischio Inaccettabile", insieme a tecnologie come la sorveglianza biometrica in tempo reale o il social scoring da parte dei governi.

Se questa proposta venisse adottata, fornirebbe una portata extraterritoriale, il che significa che qualsiasi azienda che offra questi servizi ai cittadini europei — indipendentemente dalla sede legale della società — affronterebbe sanzioni massicce. Per le imprese, questo è un segnale chiaro: la conformità non è più solo una lista di controllo; è la fondamenta di una casa che deve essere costruita sull'etica. Le aziende che ignorano questi venti di cambiamento non sono solo non conformi; stanno costruendo i loro modelli di business su una linea di faglia.

Un'indagine meticolosa sull'igiene digitale

Quando indago su questo tipo di strumenti, trovo spesso una scia di indizi che riportano a sviluppatori opachi che si nascondono dietro strati di società di comodo. Queste piattaforme spesso sostengono di fornire meramente "strumenti artistici" o "intrattenimento". Tuttavia, quando si guardano i metadati e le strategie di marketing, l'intento è chiaro. Stanno mappando le nostre vite e i nostri corpi a nostra insaputa, creando un mondo in cui nessuna foto è al sicuro da alterazioni.

Recentemente ho seguito un caso in cui il profilo social di uno studente di scuola superiore è stato utilizzato per creare immagini deepfake. La risposta della scuola è stata quella di dire agli studenti di "stare attenti a ciò che pubblicate". Questo è l'equivalente digitale di dire a qualcuno di indossare un impermeabile durante un'alluvione. Le autorità olandesi stanno finalmente dicendo che non dovremmo essere costretti a vivere in un'alluvione. Vietando gli strumenti, stiamo costruendo una diga.

Cosa significa per le aziende e i privati

Per le aziende tecnologiche e gli sviluppatori, il messaggio è di trasparenza e gestione proattiva del rischio. Se il vostro software utilizza l'IA generativa per manipolare immagini umane, dovete verificare le vostre funzionalità ora. Aspettare una citazione formale è una scommessa ad alto rischio che potrebbe portare al fallimento sistemico del vostro marchio.

Per i privati, questo sviluppo è un passo importante verso la riconquista dell'autonomia digitale. Segnala che la legge sta finalmente recuperando terreno rispetto alla sofisticata realtà delle molestie guidate dall'IA. Mentre aspettiamo che il Parlamento Europeo si esprima sulla proposta olandese, ci sono passi concreti che potete intraprendere per proteggere la vostra impronta digitale.

  • Controllate la vostra presenza online: Utilizzate strumenti per la tutela della privacy per vedere dove sono indicizzate le vostre immagini e considerate di restringere le impostazioni sulla privacy dei vostri account social.
  • Rivedete i Termini di Servizio: Se utilizzate generatori di immagini IA per lavoro o hobby, leggete le clausole scritte in piccolo. Assicuratevi che la piattaforma abbia politiche robuste contro la generazione di contenuti non consensuali.
  • Sostenete l'azione legislativa: Rimanete informati sui progressi dell'EU AI Act e sostenete le iniziative che danno priorità alla dignità umana rispetto all'"innovazione" tecnologica fine a se stessa.

In definitiva, la dichiarazione congiunta olandese ci ricorda che la privacy non è solo una casella da spuntare per la conformità; è un diritto umano fondamentale. Trattando questi strumenti come i pericoli digitali che sono, possiamo iniziare a costruire un internet più sicuro e rispettoso per tutti.

Fonti:

  • Regolamento sull'intelligenza artificiale dell'UE (Regolamento (UE) 2024/1689)
  • Regolamento generale sulla protezione dei dati (GDPR), Articolo 6 (Liceità del trattamento) e Articolo 9 (Trattamento di categorie particolari di dati personali)
  • Dichiarazione congiunta della Polizia nazionale olandese e della Procura (aprile 2026)
  • Convenzione europea dei diritti dell'uomo, Articolo 8 (Diritto al rispetto della vita privata e familiare)

Disclaimer: Questo articolo è solo a scopo informativo e giornalistico e non costituisce consulenza legale formale. Se state affrontando un problema legale riguardante la privacy digitale o l'IA, consultate un professionista legale qualificato.

bg
bg
bg

Ci vediamo dall'altra parte.

La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.

/ Creare un account gratuito