Hiszpania poleciła prokuratorom wszczęcie dochodzeń w sprawie głównych platform mediów społecznościowych X (dawniej Twitter), Meta i TikTok w związku z zarzutami, że za pośrednictwem ich usług rozpowszechniane były materiały przedstawiające wykorzystywanie seksualne dzieci wygenerowane przez sztuczną inteligencję. Oznacza to znaczną eskalację europejskich wysiłków na rzecz pociągnięcia firm technologicznych do odpowiedzialności za szkodliwe i nielegalne treści pojawiające się na ich platformach.
Działanie to następuje w czasie, gdy organy regulacyjne w całej Unii Europejskiej intensyfikują kontrolę nad tym, jak firmy technologiczne moderują treści, szczególnie w obliczu faktu, że sztuczna inteligencja ułatwia tworzenie realistycznych, a jednak syntetycznych obrazów i filmów. Decyzja Hiszpanii sygnalizuje, że rządy nie chcą już czekać, aż platformy same się uregulują, gdy w grę wchodzi ochrona dzieci w Internecie.
Sztuczna inteligencja zmieniła krajobraz zagrożeń dla bezpieczeństwa online. Nowoczesne narzędzia generatywnej sztucznej inteligencji mogą tworzyć fotorealistyczne obrazy i filmy, które są coraz trudniejsze do odróżnienia od autentycznych treści. Choć technologie te mają legalne zastosowania w rozrywce, projektowaniu i edukacji, otworzyły one również niepokojącą nową drogę do tworzenia materiałów przedstawiających wykorzystywanie seksualne dzieci bez bezpośredniego krzywdzenia dziecka podczas produkcji.
Eksperci i organy ścigania podkreślają jednak, że takie materiały są nadal głęboko szkodliwe. Normalizują one seksualizację dzieci, mogą być wykorzystywane do uwodzenia (groomingu) realnych ofiar i utrudniają śledczym identyfikację oraz ratowanie faktycznych ofiar poprzez zalewanie systemów wykrywania syntetycznymi treściami. Istnienie tych materiałów, niezależnie od ich pochodzenia, utrwala rynek wyzysku dzieci.
Hiszpańskie dochodzenie koncentruje się na tym, czy X, Meta i TikTok posiadają odpowiednie zabezpieczenia do wykrywania i usuwania tych treści wygenerowanych przez AI oraz czy wystarczająco reagowały na zgłoszenia o pojawianiu się takich materiałów na ich platformach.
Działania Hiszpanii odbywają się w kontekście unijnego aktu o usługach cyfrowych (DSA), który wszedł w życie w pełni w 2024 roku. To przełomowe ustawodawstwo wymaga od platform internetowych wzięcia odpowiedzialności za nielegalne treści i wdrożenia solidnych systemów w celu identyfikacji, usuwania i zapobiegania rozprzestrzenianiu się szkodliwych materiałów.
Zgodnie z DSA, bardzo duże platformy internetowe — te posiadające ponad 45 milionów aktywnych użytkowników miesięcznie w UE — podlegają szczególnym obowiązkom. Muszą one przeprowadzać oceny ryzyka, wdrażać środki łagodzące i poddawać się niezależnym audytom. X, Meta (która zarządza Facebookiem, Instagramem i WhatsAppem) oraz TikTok należą do tej kategorii.
Nieprzestrzeganie wymogów DSA może skutkować grzywnami w wysokości do sześciu procent globalnego rocznego przychodu firmy. W przypadku Mety, która odnotowała ponad 130 miliardów dolarów przychodu w 2024 roku, mogłoby to oznaczać miliardy dolarów kar. Stawka jest ogromna, zarówno pod względem finansowym, jak i wizerunkowym.
Trzy firmy objęte dochodzeniem w Hiszpanii publicznie zobowiązały się do walki z materiałami przedstawiającymi wykorzystywanie seksualne dzieci, choć ich podejścia i dotychczasowe wyniki są różne.
Meta zainwestowała znaczne środki w technologię wykrywania, korzystając z połączenia narzędzi skanujących opartych na AI oraz ludzkich moderatorów. Firma co roku zgłasza miliony treści związanych z wyzyskiem dzieci do National Center for Missing and Exploited Children (NCMEC). Krytycy twierdzą jednak, że systemy Mety wciąż pozwalają na przenikanie zbyt dużej ilości szkodliwych treści, szczególnie w jej szyfrowanych usługach przesyłania wiadomości.
X, pod własnością Elona Muska, stanął w obliczu zwiększonej kontroli nad moderacją treści. Platforma drastycznie zredukowała swoje zespoły ds. zaufania i bezpieczeństwa w 2023 roku, co wzbudziło obawy o jej zdolność do wykrywania i usuwania nielegalnych treści. Choć X utrzymuje, że stosuje politykę zerowej tolerancji dla materiałów przedstawiających wykorzystywanie seksualne dzieci, kilka organizacji badawczych udokumentowało przypadki, w których zgłoszone treści pozostawały dostępne przez dłuższy czas.
TikTok kładzie nacisk na połączenie automatycznego wykrywania i ludzkiej weryfikacji, a także na partnerstwa z organizacjami zajmującymi się bezpieczeństwem dzieci. Platforma wdrożyła również funkcje zaprojektowane w celu ochrony młodszych użytkowników, takie jak domyślne ustawienia prywatności dla kont należących do nieletnich. Niemniej jednak sama ilość treści przesyłanych każdego dnia — setki milionów filmów — stanowi ogromne wyzwanie dla każdego systemu moderacji.
Hiszpańskie dochodzenie reprezentuje szerszą zmianę w sposobie, w jaki rządy podchodzą do odpowiedzialności platform. Zamiast traktować firmy mediów społecznościowych jako neutralnych pośredników, organy regulacyjne coraz częściej postrzegają je jako wydawców ponoszących odpowiedzialność redakcyjną za treści, które goszczą i promują.
Ta sprawa może ustanowić ważne precedensy z kilku powodów. Po pierwsze, dotyczy ona konkretnie treści wygenerowanych przez AI, czyli obszaru, w którym regulacje i praktyki egzekwowania przepisów wciąż ewoluują. Po drugie, pokazuje, że poszczególne państwa członkowskie UE są skłonne prowadzić dochodzenia niezależnie, nawet gdy Komisja Europejska prowadzi własne działania egzekucyjne w ramach DSA.
Dochodzenie podkreśla również napięcie leżące u podstaw moderacji treści: równoważenie prywatności użytkowników z bezpieczeństwem. Szyfrowanie typu end-to-end, które chroni komunikację użytkowników przed inwigilacją, utrudnia również wykrywanie nielegalnych treści. Znalezienie rozwiązań, które zachowują prywatność, jednocześnie zapobiegając nadużyciom, pozostaje jednym z najtrudniejszych problemów w polityce technologicznej.
Podczas gdy platformy i organy regulacyjne pracują nad tymi kwestiami, rodzice i użytkownicy mogą podjąć kilka kroków w celu zwiększenia bezpieczeństwa online:
Włącz wbudowane funkcje bezpieczeństwa. Wszystkie trzy platformy oferują kontrolę rodzicielską, tryby ograniczone i filtry treści. Poświęć czas na odpowiednią konfigurację tych ustawień dla młodszych użytkowników.
Utrzymuj otwartą komunikację. Rozmawiaj z dziećmi o tym, co napotykają w Internecie i stwórz środowisko, w którym czują się one swobodnie, zgłaszając niepokojące treści lub interakcje.
Natychmiast zgłaszaj podejrzane treści. Wszystkie główne platformy posiadają mechanizmy zgłaszania. Korzystaj z nich. Zgłoszenia pomagają trenować systemy wykrywania i alarmują ludzkich moderatorów o problematycznych treściach.
Bądź na bieżąco z polityką platform. Firmy regularnie aktualizują swoje funkcje bezpieczeństwa i zasady dotyczące treści. Przeglądanie tych zmian pomaga zrozumieć, jakie zabezpieczenia są stosowane.
Rozważ narzędzia monitorujące firm trzecich. Różne aplikacje do kontroli rodzicielskiej mogą zapewnić dodatkowe warstwy ochrony i wgląd w to, jak dzieci korzystają z mediów społecznościowych.
Hiszpańscy prokuratorzy będą teraz gromadzić dowody, aby ustalić, czy platformy naruszyły prawo hiszpańskie lub regulacje UE. Proces ten może potrwać miesiące, a nawet lata. Jeśli śledczy stwierdzą naruszenia, firmy mogą stanąć w obliczu znacznych grzywien, nakazów zmiany praktyk lub obu tych sankcji.
Tymczasem inne kraje europejskie uważnie się przyglądają. Podobne dochodzenia mogą zostać wszczęte gdzie indziej, jeśli hiszpańskie dochodzenie ujawni systemowe błędy. Komisja Europejska, która ponosi główną odpowiedzialność za egzekwowanie DSA wobec bardzo dużych platform, może również zintensyfikować swoją kontrolę w oparciu o ustalenia Hiszpanii.
Dla szeroko pojętej branży technologicznej sprawa ta podkreśla, że treści wygenerowane przez AI będą traktowane tak samo poważnie, jak tradycyjne nielegalne materiały. W miarę postępu możliwości generatywnej sztucznej inteligencji platformy będą musiały intensywnie inwestować w technologie wykrywania, które potrafią zidentyfikować treści syntetyczne i odróżnić je od legalnych zastosowań AI.
Dochodzenie stawia również pytania o przyszłość samej moderacji treści. Czy przy miliardach treści publikowanych codziennie na głównych platformach jakakolwiek kombinacja AI i ludzkich moderatorów może naprawdę dotrzymać kroku? Niektórzy eksperci twierdzą, że fundamentalne zmiany w sposobie działania platform — takie jak ograniczenie algorytmicznego wzmacniania treści, które nie zostały zweryfikowane — mogą być konieczne, aby odpowiednio stawić czoła tym wyzwaniom.



Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.
/ Utwórz bezpłatne konto