La Spagna ha incaricato i pubblici ministeri di avviare indagini sulle principali piattaforme di social media X (precedentemente Twitter), Meta e TikTok in merito alle accuse secondo cui materiale pedopornografico generato dall'intelligenza artificiale sarebbe stato distribuito attraverso i loro servizi. Ciò segna una significativa escalation negli sforzi europei per ritenere le aziende tecnologiche responsabili dei contenuti dannosi e illegali che appaiono sulle loro piattaforme.
La mossa arriva mentre le autorità di regolamentazione di tutta l'Unione Europea intensificano il controllo su come le aziende tecnologiche moderano i contenuti, in particolare perché l'intelligenza artificiale rende più facile la creazione di immagini e video sintetici ma realistici. La decisione della Spagna segnala che i governi non sono più disposti ad aspettare che le piattaforme si autoregolino quando si tratta di proteggere i minori online.
L'intelligenza artificiale ha trasformato il panorama delle minacce alla sicurezza online. I moderni strumenti di IA generativa possono creare immagini e video fotorealistici che sono sempre più difficili da distinguere dai contenuti autentici. Sebbene queste tecnologie abbiano usi legittimi nell'intrattenimento, nel design e nell'istruzione, hanno anche aperto una nuova e inquietante strada per la creazione di materiale pedopornografico senza danneggiare direttamente un bambino durante la produzione.
Tuttavia, gli esperti e le forze dell'ordine sottolineano che tale materiale è comunque profondamente dannoso. Normalizza la sessualizzazione dei bambini, può essere utilizzato per adescare vittime reali e rende più difficile per gli investigatori identificare e salvare le vittime effettive, inondando i sistemi di rilevamento con contenuti sintetici. L'esistenza di questo materiale, indipendentemente dalla sua origine, perpetua un mercato per lo sfruttamento dei minori.
L'indagine spagnola si concentra sulla verifica se X, Meta e TikTok dispongano di tutele adeguate per rilevare e rimuovere questi contenuti generati dall'IA e se siano stati sufficientemente reattivi alle segnalazioni di tale materiale apparso sulle loro piattaforme.
L'azione della Spagna si svolge nel contesto della Legge sui servizi digitali (DSA) dell'Unione Europea, entrata in pieno vigore nel 2024. Questa legislazione storica richiede alle piattaforme online di assumersi la responsabilità dei contenuti illegali e di implementare sistemi robusti per identificare, rimuovere e prevenire la diffusione di materiale dannoso.
Ai sensi della DSA, le piattaforme online di dimensioni molto grandi — quelle con più di 45 milioni di utenti attivi mensili nell'UE — devono affrontare obblighi particolari. Devono condurre valutazioni dei rischi, implementare misure di mitigazione e sottoporsi a audit indipendenti. X, Meta (che gestisce Facebook, Instagram e WhatsApp) e TikTok rientrano tutti in questa categoria.
Il mancato rispetto dei requisiti della DSA può comportare sanzioni fino al sei percento del fatturato annuo globale di un'azienda. Per Meta, che ha riportato oltre 130 miliardi di dollari di fatturato per il 2024, ciò potrebbe tradursi in miliardi di dollari di penali. La posta in gioco è enorme, sia dal punto di vista finanziario che reputazionale.
Le tre società prese di mira dall'indagine spagnola si sono tutte impegnate pubblicamente a combattere il materiale pedopornografico, sebbene i loro approcci e i loro risultati varino.
Meta ha investito significativamente nella tecnologia di rilevamento, utilizzando una combinazione di strumenti di scansione basati sull'IA e moderatori umani. L'azienda segnala annualmente milioni di contenuti di sfruttamento minorile al National Center for Missing and Exploited Children (NCMEC). Tuttavia, i critici sostengono che i sistemi di Meta consentano ancora la fuga di troppi contenuti dannosi, in particolare sui suoi servizi di messaggistica crittografati.
X, sotto la proprietà di Elon Musk, ha dovuto affrontare un crescente controllo sulla moderazione dei contenuti. La piattaforma ha drasticamente ridotto i suoi team di fiducia e sicurezza nel 2023, sollevando preoccupazioni sulla sua capacità di rilevare e rimuovere contenuti illegali. Sebbene X sostenga di avere tolleranza zero per il materiale pedopornografico, diverse organizzazioni di ricerca hanno documentato casi in cui i contenuti segnalati sono rimasti accessibili per periodi prolungati.
TikTok ha sottolineato la sua combinazione di rilevamento automatizzato e revisione umana, insieme a partnership con organizzazioni per la sicurezza dei minori. La piattaforma ha anche implementato funzionalità progettate per proteggere gli utenti più giovani, come le impostazioni sulla privacy predefinite per gli account appartenenti a minori. Ciononostante, l'enorme volume di contenuti caricati quotidianamente — centinaia di milioni di video — presenta sfide enormi per qualsiasi sistema di moderazione.
L'indagine della Spagna rappresenta un cambiamento più ampio nel modo in cui i governi approcciano la responsabilità delle piattaforme. Invece di trattare le società di social media come intermediari neutrali, i regolatori le considerano sempre più come editori con responsabilità editoriale per i contenuti che ospitano e amplificano.
Questo caso potrebbe stabilire importanti precedenti per diverse ragioni. In primo luogo, affronta specificamente i contenuti generati dall'IA, un'area in cui le normative e le pratiche di applicazione sono ancora in evoluzione. In secondo luogo, dimostra che i singoli Stati membri dell'UE sono disposti a perseguire indagini in modo indipendente, anche mentre la Commissione Europea conduce le proprie azioni di applicazione della DSA.
L'indagine evidenzia anche una tensione al centro della moderazione dei contenuti: bilanciare la privacy degli utenti con la sicurezza. La crittografia end-to-end, che protegge le comunicazioni degli utenti dalla sorveglianza, rende anche più difficile rilevare contenuti illegali. Trovare soluzioni che preservino la privacy prevenendo gli abusi rimane uno dei problemi più impegnativi nella politica tecnologica.
Mentre le piattaforme e i regolatori lavorano su questi problemi, i genitori e gli utenti possono adottare diverse misure per migliorare la sicurezza online:
Abilitare le funzioni di sicurezza integrate. Tutte e tre le piattaforme offrono controlli parentali, modalità limitate e filtri per i contenuti. Dedicate del tempo a configurare queste impostazioni in modo appropriato per gli utenti più giovani.
Mantenere una comunicazione aperta. Parlate con i bambini di ciò che incontrano online e create un ambiente in cui si sentano a proprio agio nel segnalare contenuti o interazioni preoccupanti.
Segnalare immediatamente i contenuti sospetti. Tutte le principali piattaforme dispongono di meccanismi di segnalazione. Usateli. Le segnalazioni aiutano ad addestrare i sistemi di rilevamento e ad avvisare i moderatori umani di contenuti problematici.
Rimanere informati sulle politiche della piattaforma. Le aziende aggiornano regolarmente le loro funzioni di sicurezza e le politiche sui contenuti. Rivedere questi cambiamenti aiuta a capire quali protezioni sono in vigore.
Considerare strumenti di monitoraggio di terze parti. Diverse applicazioni di controllo parentale possono fornire ulteriori livelli di protezione e visibilità su come i bambini utilizzano i social media.
I pubblici ministeri spagnoli raccoglieranno ora le prove per determinare se le piattaforme abbiano violato la legge spagnola o i regolamenti dell'UE. Questo processo potrebbe richiedere mesi o addirittura anni. Se gli investigatori riscontrassero violazioni, le aziende potrebbero affrontare sanzioni sostanziali, ordini di modificare le loro pratiche, o entrambi.
Nel frattempo, altri paesi europei stanno osservando da vicino. Indagini simili potrebbero essere avviate altrove se l'inchiesta spagnola dovesse scoprire fallimenti sistemici. La Commissione Europea, che ha la responsabilità primaria di far rispettare la DSA contro le piattaforme molto grandi, potrebbe anche intensificare il suo controllo sulla base dei risultati della Spagna.
Per l'industria tecnologica in generale, questo caso sottolinea che i contenuti generati dall'IA riceveranno lo stesso trattamento serio del materiale illegale tradizionale. Man mano che le capacità dell'IA generativa continuano a progredire, le piattaforme dovranno investire pesantemente in tecnologie di rilevamento in grado di identificare i contenuti sintetici e distinguerli dagli usi legittimi dell'IA.
L'indagine solleva anche questioni sul futuro stesso della moderazione dei contenuti. Con miliardi di contenuti pubblicati quotidianamente sulle principali piattaforme, può una combinazione di IA e moderatori umani tenere davvero il passo? Alcuni esperti sostengono che cambiamenti fondamentali nel modo in cui operano le piattaforme — come limitare l'amplificazione algoritmica dei contenuti che non sono stati revisionati — potrebbero essere necessari per affrontare adeguatamente queste sfide.



La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.
/ Creare un account gratuito