Globalny wyścig o dominację w dziedzinie sztucznej inteligencji jest często przedstawiany jako bitwa na moc obliczeniową i wydajność algorytmiczną. Jednak niedawne badanie opublikowane w czasopiśmie PNAS Nexus rzuca światło na inny rodzaj podziału architektonicznego: podział ideologiczny. Naukowcy odkryli, że wiodące chińskie duże modele językowe (LLM), w tym DeepSeek, BaiChuan i ChatGLM, wykazują systemowe wzorce cenzury i dostosowania do narracji państwowej w obliczu pytań wrażliwych politycznie.
W miarę jak AI staje się głównym interfejsem, za pośrednictwem którego uzyskujemy dostęp do informacji, ustalenia te budzą krytyczne pytania o przyszłość fragmentarycznego internetu. Podczas gdy zachodnie modele, takie jak GPT-4 czy Claude, posiadają własne bariery bezpieczeństwa, badanie sugeruje, że chińskie modele działają pod unikalnym zestawem ograniczeń zaprojektowanych w celu podtrzymania „podstawowych wartości socjalistycznych” i stabilności państwa.
Aby zrozumieć głębię tych ograniczeń, naukowcy przygotowali zestaw ponad 100 pytań obejmujących spektrum drażliwych tematów, od wydarzeń historycznych, takich jak protesty na placu Tiananmen, po współczesne napięcia geopolityczne i krytykę przywództwa państwowego. Następnie przetestowali kilka głośnych chińskich modeli i porównali ich wyniki z międzynarodowymi standardami.
Wyniki nie sprowadzały się jedynie do odpowiedzi „tak” lub „nie”. Zamiast tego badanie zidentyfikowało wyrafinowaną hierarchię unikania odpowiedzi. Niektóre modele po prostu uruchamiały zakodowaną na sztywno odmowę, podczas gdy inne próbowały skierować rozmowę na neutralny grunt lub udzielały odpowiedzi odzwierciedlającej oficjalne rządowe białe księgi. Sugeruje to, że cenzura w tych modelach nie jest tylko kwestią wtórną, ale jest wbudowana w dane treningowe oraz etapy uczenia się ze wzmocnieniem na podstawie opinii ludzkich (RLHF).
W badaniu skategoryzowano odpowiedzi na trzy główne zachowania: odmowę, gotowe odpowiedzi (canned responses) oraz zmianę tematu. Zapytane o konkretne postacie polityczne lub wrażliwe daty, modele takie jak ChatGLM i BaiChuan często zwracały ustandaryzowane komunikaty o błędach lub stwierdzały, że „nie są w stanie omówić tego tematu”.
Co ciekawe, DeepSeek — model, który zyskał znaczną międzynarodową popularność dzięki swojej wydajności i podejściu open-weights — również wykazał wysoki poziom wrażliwości. W odpowiedzi na pytania dotyczące suwerenności państwowej lub konkretnych polityk krajowych, model często przechodził na neutralny, opisowy ton, unikając jakiejkolwiek krytycznej analizy. Podkreśla to centralne napięcie dla chińskich gigantów technologicznych: potrzebę tworzenia globalnie konkurencyjnej, wysoce zdolnej sztucznej inteligencji przy jednoczesnym zachowaniu ścisłej zgodności z Chińską Administracją Cyberprzestrzeni (CAC).
Poniższa tabela podsumowuje ogólne zachowania zaobserwowane podczas badania, gdy modelom przedstawiono zapytania polityczne o wysokim stopniu wrażliwości.
| Nazwa modelu | Pochodzenie | Główna strategia odpowiedzi | Poziom wrażliwości |
|---|---|---|---|
| GPT-4o | USA | Niuansowanie/Odmowa (oparta na bezpieczeństwie) | Umiarkowany |
| DeepSeek-V3 | Chiny | Przekierowanie/Zgodność z linią państwową | Wysoki |
| ChatGLM-4 | Chiny | Twarda odmowa/Standardowy komunikat | Bardzo wysoki |
| BaiChuan-2 | Chiny | Zmiana tematu/Neutralność | Wysoki |
| Llama 3 | USA | Informacyjny/Otwarty (ograniczony polityką) | Niski |
Aby zrozumieć, dlaczego modele te zachowują się w ten sposób, należy przyjrzeć się krajobrazowi regulacyjnemu w Chinach. W 2023 r. CAC wydała tymczasowe środki dotyczące zarządzania usługami generatywnej sztucznej inteligencji. Zasady te wyraźnie stwierdzają, że treści generowane przez AI muszą odzwierciedlać „podstawowe wartości socjalistyczne” i nie mogą zawierać treści, które „podważają władzę państwową” lub „naruszają jedność narodową”.
Dla deweloperów stawka jest wysoka. W przeciwieństwie do zachodnich twórców, którzy mogą spotkać się z krytyką publiczną za uprzedzenia AI, chińskie firmy ryzykują cofnięciem licencji lub karami prawnymi, jeśli ich modele wygenerują „szkodliwe” treści polityczne. Doprowadziło to do opracowania warstw „pre-filtrowania” i „post-filtrowania” — oprogramowania, które skanuje zapytanie użytkownika pod kątem słów kluczowych, zanim dotrze ono do LLM, oraz kolejnego, które skanuje wynik, zanim zobaczy go użytkownik.
Cenzura to nie tylko kwestia społeczna czy polityczna; ma ona konsekwencje techniczne. Gdy model jest intensywnie dostrajany, aby unikać pewnych tematów, może cierpieć na coś, co naukowcy nazywają „podatkiem od dopasowania” (alignment tax). Odnosi się to do potencjalnej degradacji ogólnego rozumowania lub zdolności twórczych, ponieważ wagi modelu są naciągane w stronę konkretnych ograniczeń ideologicznych.
Jednak badanie PNAS Nexus zauważyło, że chińskie modele pozostają niezwykle sprawne w dziedzinach obiektywnych, takich jak matematyka, kodowanie i lingwistyka. Cenzura wydaje się być wysoce chirurgiczna. Wyzwaniem dla globalnej społeczności technologicznej jest ustalenie, w jaki sposób te „dopasowane ideologicznie” modele będą wchodzić w interakcje z resztą świata, gdy zostaną zintegrowane z globalnymi łańcuchami dostaw i ekosystemami oprogramowania.
W miarę jak krajobraz AI ulega dalszej bifurkacji, firmy i deweloperzy muszą ostrożnie poruszać się wśród tych różnic. Jeśli pracujesz z chińskimi modelami LLM lub je oceniasz, rozważ następujące kwestie:
Ustalenia badania PNAS Nexus przypominają, że AI nie jest narzędziem neutralnym. Jest odzwierciedleniem danych, wartości i praw miejsca swojego pochodzenia. W miarę jak zmierzamy ku przyszłości „Suwerennej AI”, umiejętność identyfikacji i poruszania się po tych cyfrowych granicach będzie kluczową umiejętnością dla każdego specjalisty IT.
Źródła:



Nasze kompleksowe, szyfrowane rozwiązanie do poczty e-mail i przechowywania danych w chmurze zapewnia najpotężniejsze środki bezpiecznej wymiany danych, zapewniając bezpieczeństwo i prywatność danych.
/ Utwórz bezpłatne konto