Sztuczna inteligencja

Indie nakazują usunięcie deepfake'ów w ciągu 3 godzin: Nowe zasady IT wymagają natychmiastowego działania platform i etykietowania treści AI

Nowe zasady IT w Indiach nakładają na platformy mediów społecznościowych obowiązek usuwania deepfake'ów i nielegalnych treści w ciągu 3 godzin, egzekwowania etykietowania AI i osadzania możliwych do śledzenia metadanych.
Indie nakazują usunięcie deepfake'ów w ciągu 3 godzin: Nowe zasady IT wymagają natychmiastowego działania platform i etykietowania treści AI

Rząd Indii znacząco zaostrzył ramy zarządzania cyfrowego, ogłaszając daleko idące poprawki do swoich Przepisów dotyczących technologii informacyjnych (Wytyczne dla Pośredników i Kodeks Etyki Mediów Cyfrowych) z 2021 roku. Nowe rozporządzenie wymaga od platform mediów społecznościowych usunięcia deepfake'ów i innych form nielegalnych treści w ciągu zaledwie trzech godzin od otrzymania żądania usunięcia, co stanowi drastyczną redukcję z poprzedniego terminu 36 godzin. Nowe zasady, obowiązujące od 20 lutego 2026 r., nakładają bezprecedensowe wymogi szybkości i technicznej staranności na głównych pośredników technologicznych w celu ograniczenia wzrostu ilości treści syntetycznych.

Termin 180 Minut: Drastyczna Zmiana w Usuwaniu Treści

Najbardziej natychmiastową i znaczącą zmianą jest drastycznie skrócony czas na usunięcie treści. Zgodnie ze zmienionymi przepisami, platformy muszą działać błyskawicznie w odpowiedzi na wyzwania prawne. W przypadku, gdy treść zostanie oznaczona jako nielegalna przez właściwy organ rządowy lub nakaz sądowy, pośrednicy muszą zapewnić jej usunięcie lub zablokowanie dostępu w ciągu trzech godzin. Mandat ten obejmuje szeroki zakres materiałów niezgodnych z prawem, w tym treści związane z poważnymi przestępstwami i oszukańcze podszywanie się.

Jednakże, przepisy nakładają jeszcze krótszy, bardziej pilny termin na najwrażliwsze naruszenia. W przypadku treści zawierających intymne wizerunki bez zgody (NCII), takie jak deepfake'i z nagością, lub materiały ujawniające miejsca intymne, termin usunięcia zostaje skrócony do zaledwie dwóch godzin. Odzwierciedla to uznanie przez organy regulacyjne, że w przypadkach wykorzystania seksualnego każda minuta ekspozycji może spowodować poważną, trwałą traumę u ofiary.

Poza Usuwaniem: Obowiązkowe Etykietowanie i Cyfrowa Proweniencja

Rząd skupił się nie tylko na szybkim usuwaniu, ale także na zapobieganiu oszukańczemu rozprzestrzenianiu się mediów syntetycznych. Po raz pierwszy prawo indyjskie dostarcza formalnej, technicznej definicji „Informacji Generowanej Syntetycznie” (SGI). Ta SGI, która obejmuje treści audio, wideo i wizualne generowane przez AI, które wydają się nie do odróżnienia od prawdziwej osoby lub zdarzenia, podlega teraz obowiązkowym wymogom ujawniania i identyfikowalności.

Pośrednicy muszą teraz zapewnić, że wszystkie SGI są wyraźnie i widocznie oznakowane. Ma to na celu natychmiastowe ostrzeżenie użytkowników o syntetycznym charakterze oglądanych treści. Ponadto platformy, które umożliwiają tworzenie lub rozpowszechnianie SGI, są zobowiązane do osadzania trwałych metadanych lub znaczników proweniencji w samym pliku, jeśli jest to technicznie wykonalne. Ten cyfrowy odcisk palca pozwala śledczym i organom regulacyjnym prześledzić treść z powrotem do jej punktu pochodzenia, nawet jeśli plik zostanie skopiowany i udostępniony na różnych platformach. Co kluczowe, przepisy wyraźnie zabraniają usuwania lub tłumienia tych etykiet AI lub powiązanych metadanych.

Nowa Lista Kontrolna Należytej Staranności Platform

W przypadku głównych platform mediów społecznościowych – określanych jako Znaczący Pośrednicy Mediów Społecznościowych – wymogi zgodności są szerokie. Nowe zasady podnoszą należytą staranność z reaktywnego modelu kontroli do modelu prewencyjnego.

Kluczowe Wymogi Należytej Staranności dla Platform:

  1. Deklaracja Użytkownika: Zanim użytkownik opublikuje treść, platforma musi wymagać od niego wyraźnego zadeklarowania, czy treść została wygenerowana lub zmieniona za pomocą sztucznej inteligencji.
  2. Weryfikacja Techniczna: Platformy nie mogą polegać wyłącznie na samodzielnej deklaracji. Są prawnie zobowiązane do wdrożenia „uzasadnionych i odpowiednich środków technicznych”, w tym zautomatyzowanych narzędzi, w celu krzyżowej weryfikacji oświadczenia użytkownika i wykrywania nielegalnych treści deepfake.
  3. Proaktywna Prewencja: Platformy muszą wykorzystywać zautomatyzowane narzędzia do aktywnego zapobiegania promowaniu lub wzmacnianiu kategorii nielegalnych, wprowadzających w błąd i wykorzystujących seksualnie treści AI, takich jak materiały dotyczące wykorzystywania seksualnego dzieci i wizerunki intymne bez zgody.

Skąd ten pośpiech? Stawka „Bezpiecznej Przystani”

Siłą napędową tego przyspieszenia regulacyjnego jest rosnące zagrożenie wykorzystania deepfake'ów jako broni do oszustw, dezinformacji, manipulacji politycznych i poważnego nękania osobistego – problem, który nasilił się w 2025 roku. Stawka za nieprzestrzeganie przepisów jest wyższa niż kiedykolwiek.

Historycznie, platformy mediów społecznościowych były chronione przez przepisy „Bezpiecznej Przystani” (Sekcja 79 Ustawy IT), które chroniły je przed odpowiedzialnością za treści zamieszczone przez ich użytkowników. Nowe poprawki wprowadzają kluczowy warunek: jeśli pośrednik nie spełni obowiązków wynikających z Przepisów IT – na przykład, świadomie przymykając oko na nieetykietowane SGI lub nie mieszcząc się w nowo skróconych oknach czasowych na usunięcie – ryzykuje utratę ochrony „Bezpiecznej Przystani”. Ta luka prawna mogłaby otworzyć drogę do pozywania platform tak, jakby były one samymi twórcami treści, co stanowi znaczącą zmianę odpowiedzialności dla Big Tech na rynku indyjskim.

Praktyczne Wnioski dla Twórców i Użytkowników

Wraz z wejściem w życie tych nowych zasad 20 lutego 2026 r., ekosystem cyfrowy w Indiach czeka zmiana strukturalna.

Dla Użytkownika i Twórcy:

  • Deklaruj Swoje Treści AI: Jeśli używasz jakiegokolwiek generatywnego narzędzia AI do tworzenia lub znaczącego zmieniania audio, wideo lub obrazów, prawdopodobnie będziesz musiał to zadeklarować przed publikacją na głównych platformach społecznościowych.
  • Zrozum Wyjątki: Rutynowa edycja – taka jak korekcja kolorów, redukcja szumów lub drobne formatowanie, które nie zmienia istotnie pierwotnego znaczenia – jest generalnie zwolniona z klasyfikacji SGI.
  • Zgłaszaj Szybko: Jeśli napotkasz szkodliwe treści, zwłaszcza intymne wizerunki bez zgody lub oszukańcze deepfake'i podszywające się pod kogoś, zgłoś to natychmiast urzędnikowi ds. skarg platformy. Przy czasie reakcji na wrażliwe treści wynoszącym teraz dwie godziny, szybkość ma krytyczne znaczenie.

Dla Innowatorów Technologicznych i Platform:

  • Zgodność w Projekcie (Compliance by Design): Twórcy narzędzi AI i platform treści działających w Indiach muszą zintegrować obowiązkowe etykietowanie i osadzanie metadanych w projekcie produktu od podstaw.
  • Automatyzacja Moderacji: Przejście z 36 godzin na dwie lub trzy godziny wymaga masowego zwiększenia skali zautomatyzowanych narzędzi do wykrywania i moderacji, wspieranych przez znacznie zwiększoną kadrę ludzkich moderatorów treści, aby obsłużyć skomplikowane lub sporne przypadki w tak wąskim terminie.

Nowe ramy Indii stanowią jedną z najbardziej agresywnych na świecie reakcji regulacyjnych na deepfake'i, ustanawiając operacyjny punkt odniesienia, który przetestuje możliwości techniczne i rozmieszczenie zasobów globalnych gigantów mediów społecznościowych.

bg
bg
bg

Do zobaczenia po drugiej stronie.

Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.

/ Utwórz bezpłatne konto