Intelligenza artificiale

Oltre 100 Organizzazioni, Incluse Interpol e la Commissione Europea, Chiedono il Bando Globale degli Strumenti di Nudificazione tramite IA

Oltre 100 organizzazioni, inclusa la Commissione Europea e Interpol, chiedono un divieto globale e immediato sugli strumenti di nudificazione tramite IA dopo la crisi dei deepfake di Grok.
Oltre 100 Organizzazioni, Incluse Interpol e la Commissione Europea, Chiedono il Bando Globale degli Strumenti di Nudificazione tramite IA

Una potente alleanza globale di oltre 100 organizzazioni, tra cui forze dell'ordine, difensori dei diritti umani e organismi di regolamentazione, sta chiedendo un divieto immediato e universale sugli strumenti di nudificazione tramite IA. La coalizione senza precedenti, che comprende la Commissione Europea, Interpol, Amnesty International e Save the Children, ha rilasciato una dichiarazione congiunta il 10 febbraio 2026, intitolata "Unificare le Voci a Livello Mondiale: No a Nudify", dichiarando che queste tecnologie non servono a "alcuno scopo positivo" e devono essere esplicitamente messe al bando.

La mobilitazione globale segue un aumento netto e terrificante nell'uso dell'IA generativa come arma per creare immagini intime non consensuali, con la controversia che ha coinvolto il chatbot IA di Elon Musk, Grok, che funge da punto di svolta critico.

La Coalizione Globale e la Sua Richiesta Unificata

Composta da un gruppo eterogeneo di 107 organizzazioni ed esperti, i membri della coalizione spaziano da gruppi umanitari e di protezione dei minori come Safe Online e Internet Watch Foundation, a organismi internazionali di alto profilo. Il loro messaggio unificato si concentra su una risposta legislativa immediata e globale, esortando i governi e i legislatori a far rispettare la regolamentazione entro i prossimi due anni.

Il fulcro della richiesta è classificare questi strumenti come una minaccia inaccettabile per la dignità umana e la sicurezza dei minori, sottolineando che la funzionalità di rimuovere digitalmente gli indumenti dalle fotografie è intrinsecamente abusiva.

I Dati Dietro la Crisi: Un Aumento del 1.325%

L'appello urgente della coalizione è basato su statistiche che fanno riflettere, illustrando l'impatto devastante della tecnologia nel mondo reale. Tra il 2023 e il 2024, c'è stato uno scioccante aumento del 1.325% nelle immagini confermate di abusi sessuali su minori generate dall'IA. La capacità di questi strumenti di creare immagini esplicite e non consensuali da una fotografia ordinaria, spesso prendendo di mira donne e ragazze, ha creato un nuovo vettore in rapida accelerazione per lo sfruttamento, la coercizione e il ricatto.

Il Catalizzatore Grok: Un Test per la Responsabilità della Piattaforma

Il recente clamore che ha circondato il chatbot Grok di xAI ha agito come il fattore scatenante immediato per la dichiarazione della coalizione. Le segnalazioni secondo cui Grok veniva utilizzato per generare deepfake sessualizzati non consensuali di persone reali, inclusi minori, hanno iniziato a circolare nell'agosto 2025. Le stime indicano che Grok potrebbe aver generato fino a tre milioni di immagini nude non consensuali in un breve periodo, dimostrando chiaramente la portata dell'abuso della tecnologia.

Questo incidente ha messo in luce la necessità di responsabilità delle piattaforme. La coalizione ha invitato la Commissione Europea a utilizzare tutti i poteri del Digital Services Act (DSA) per obbligare le piattaforme online a mitigare i rischi sistemici, rimuovere rapidamente i contenuti illegali e limitare le funzionalità che consentono la generazione di immagini intime non consensuali.

La Battaglia per la Legge Esplicita nell'AI Act dell'UE

Sebbene l'AI Act dell'UE sia considerato il primo quadro giuridico completo al mondo per l'intelligenza artificiale, la formulazione attuale non elenca esplicitamente gli strumenti di nudificazione tramite IA come pratica proibita. Questo divario legislativo è ora al centro di un'intensa pressione politica.

Un gruppo interpartitico di 57 Membri del Parlamento Europeo (MEP) sta esortando attivamente la Commissione Europea a confermare che le applicazioni utilizzate per spogliare le persone senza il loro consenso siano effettivamente vietate ai sensi dell'AI Act, sulla base del fatto che violano i diritti fondamentali. I legislatori stanno spingendo per incorporare un divieto specifico sui deepfake sessualizzati nella legislazione, con un testo di compromesso atteso per la fine di febbraio 2026. L'intervento della coalizione rafforza in modo significativo questo sforzo politico, chiedendo alla Commissione Europea di classificare formalmente queste app come pratica proibita.

Ripercussioni Legislative Globali

Il movimento per mettere al bando questi strumenti sta guadagnando terreno a livello globale. Il Regno Unito, ad esempio, ha già adottato misure legali decisive. Dopo mesi di campagne, il governo del Regno Unito ha annunciato piani per vietare completamente le app di nudificazione tramite IA nel dicembre 2025. Inoltre, un reato per la creazione di deepfake sessuali non consensuali è entrato in vigore il 6 febbraio 2026, ai sensi del Data (Use and Access) Act 2025.

Questa attività legislativa internazionale segna un cambiamento significativo, passando dalla persecuzione della distribuzione di contenuti illegali alla criminalizzazione della creazione degli strumenti abusivi stessi.

Punti Chiave Pratici per Utenti e Sviluppatori di Tecnologia

Per chiunque sia coinvolto nell'IA generativa, il messaggio della comunità internazionale è inequivocabile: la tolleranza legale e sociale per gli strumenti di nudificazione tramite IA sta rapidamente scomparendo.

Stakeholder Punto Chiave Legale ed Etico
Sviluppatori IA/Proprietari di Piattaforme Implementare proattivamente misure di salvaguardia tecniche per prevenire la generazione di immagini intime non consensuali. Aspettarsi che l'AI Act dell'UE e il DSA impongano divieti e responsabilità rigorosi ed espliciti per gli strumenti che abilitano questo abuso.
Utenti Individuali La creazione di deepfake sessuali non consensuali è ora esplicitamente illegale e soggetta a sanzioni penali in diverse giurisdizioni (es. Regno Unito). Anche l'accesso o la richiesta di creazione di tali immagini comporta un rischio legale significativo.
Gruppi per la Protezione dei Minori/Diritti Umani Continuare a esercitare pressioni per la classificazione esplicita della nudificazione tramite IA come 'pratica proibita' in tutte le principali legislazioni internazionali, incluso il testo finale dell'AI Act dell'UE.

L'attenzione si sta ora spostando sull'applicazione e sulla garanzia che le nuove leggi siano abbastanza ampie da coprire tutte le forme di contenuto sessuale non consensuale generato dall'IA, indipendentemente dall'app o dalla piattaforma utilizzata.

bg
bg
bg

Ci vediamo dall'altra parte.

La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.

/ Creare un account gratuito