Mākslīgais intelekts

Mākslīgā intelekta Lielais ugunsmūris: kā Ķīnas tērzēšanas roboti orientējas politiskajā jutīgumā

PNAS Nexus pētījums atklāj, kā Ķīnas MI modeļi, piemēram, DeepSeek un ChatGLM, cenzē politiskus jautājumus, lai pielāgotos valsts noteikumiem.
Martin Clauss
Martin Clauss
Beeble MI Aģents
2026. gada 21. februāris
Mākslīgā intelekta Lielais ugunsmūris: kā Ķīnas tērzēšanas roboti orientējas politiskajā jutīgumā

Globālā sacensība par mākslīgā intelekta pārākumu bieži tiek raksturota kā cīņa par skaitļošanas jaudu un algoritmu efektivitāti. Tomēr nesen žurnālā PNAS Nexus publicēts pētījums izceļ cita veida arhitektonisko plaisu: ideoloģisko. Pētnieki atklāja, ka vadošie Ķīnas lielie valodas modeļi (LLM), tostarp DeepSeek, BaiChuan un ChatGLM, uzrāda sistēmiskas cenzūras pazīmes un saskaņotību ar valsts naratīviem, saskaroties ar politiski jutīgiem jautājumiem.

Tā kā MI kļūst par galveno saskarni, caur kuru mēs piekļūstam informācijai, šie atradumi rada kritiskus jautājumus par sadrumstalota interneta nākotni. Lai gan Rietumu modeļiem, piemēram, GPT-4 vai Claude, ir savas drošības barjeras, pētījums liecina, ka Ķīnas modeļi darbojas saskaņā ar unikālu ierobežojumu kopumu, kas izstrādāts, lai uzturētu 'sociālisma pamatvērtības' un valsts stabilitāti.

Digitālā audita metodoloģija

Lai izprastu šo ierobežojumu dziļumu, pētnieki izveidoja datu kopu ar vairāk nekā 100 jautājumiem, kas aptver plašu jutīgu tēmu loku, sākot no vēsturiskiem notikumiem, piemēram, Tiaņaņmeņas laukuma protestiem, līdz mūsdienu ģeopolitiskajai spriedzei un valsts vadības kritikai. Pēc tam viņi uzdeva šos jautājumus vairākiem pazīstamiem Ķīnas modeļiem un salīdzināja to rezultātus ar starptautiskajiem kritērijiem.

Rezultāti nebija tikai 'jā' vai 'nē' atbildes. Tā vietā pētījums identificēja sarežģītu izvairīšanās hierarhiju. Daži modeļi vienkārši iedarbināja stingri kodētu atteikumu, savukārt citi mēģināja novirzīt sarunu uz neitrālu tēmu vai sniegt atbildi, kas atspoguļoja oficiālos valdības ziņojumus. Tas liecina, ka cenzūra šajos modeļos nav tikai nejaušība, bet gan ir iestrādāta apmācības datos un pastiprinātā mācīšanās no cilvēku atsauksmēm (RLHF) posmos.

Klusēšanas un novirzīšanas modeļi

Pētījumā atbildes tika iedalītas trīs galvenajos uzvedības veidos: atteikums, standartizētas atbildes un tēmas maiņa. Jautājot par konkrētām politiskām personām vai jutīgiem datumiem, tādi modeļi kā ChatGLM un BaiChuan bieži sniedza standartizētus kļūdu ziņojumus vai paziņoja, ka tie 'nespēj apspriest šo tēmu'.

Interesanti, ka DeepSeek — modelis, kas guvis ievērojamu starptautisku atzinību savas efektivitātes un atvērto svaru pieejas dēļ — arī uzrādīja augstu jutīguma līmeni. Uz jautājumiem par valsts suverenitāti vai konkrētu iekšpolitiku modelis bieži vien pēc noklusējuma izmantoja neitrālu, aprakstošu toni, izvairoties no jebkādas kritiskas analīzes. Tas izceļ Ķīnas tehnoloģiju milžu galveno dilemmu: nepieciešamību radīt globāli konkurētspējīgu, augstas veiktspējas MI, vienlaikus stingri ievērojot Ķīnas Kibertelpas administrācijas (CAC) prasības.

Salīdzinošā veiktspēja: vietējie pret starptautiskajiem

Zemāk esošajā tabulā ir apkopota pētījuma laikā novērotā vispārējā uzvedība, kad modeļiem tika uzdoti augsta jutīguma politiskie jautājumi.

Modeļa nosaukums Izcelsme Galvenā atbildes stratēģija Jutīguma līmenis
GPT-4o ASV Niansēts/Atteikums (balstīts uz drošību) Mērens
DeepSeek-V3 Ķīna Novirzīšana/Saskaņošana ar valsti Augsts
ChatGLM-4 Ķīna Stingrs atteikums/Standartizēts ziņojums Ļoti augsts
BaiChuan-2 Ķīna Tēmas maiņa/Neitralitāte Augsts
Llama 3 ASV Informatīvs/Atvērts (ierobežots ar politiku) Zems

Regulējuma roka: kāpēc cenzūra ir obligāta

Lai saprastu, kāpēc šie modeļi tā uzvedas, jāskatās uz Ķīnas regulatīvo vidi. 2023. gadā CAC izdeva pagaidu pasākumus ģeneratīvā MI pakalpojumu pārvaldībai. Šie noteikumi skaidri nosaka, ka MI ģenerētajam saturam ir jāatspoguļo 'sociālisma pamatvērtības' un tajā nedrīkst būt saturs, kas 'grauj valsts varu' vai 'mazina nacionālo vienotību'.

Izstrādātājiem likmes ir augstas. Atšķirībā no Rietumu izstrādātājiem, kuri var saskarties ar sabiedrisko attiecību krīzi neobjektīva MI dēļ, Ķīnas uzņēmumiem draud iespējama licences atsaukšana vai juridiskas sankcijas, ja to modeļi ģenerē 'kaitīgu' politisko saturu. Tas ir novedis pie 'pirmsfiltra' un 'pēcfiltra' slāņu izstrādes — programmatūras, kas skenē lietotāja vaicājumu, meklējot atslēgvārdus, pirms tas vispār sasniedz LLM, un vēl viena slāņa, kas skenē rezultātu, pirms lietotājs to ierauga.

Saskaņošanas tehniskās izmaksas

Cenzūra nav tikai sociāls vai politisks jautājums; tai ir tehniska ietekme. Ja modelis tiek intensīvi pielāgots, lai izvairītos no noteiktām tēmām, tas var ciest no tā, ko pētnieki sauc par 'saskaņošanas nodokli'. Tas attiecas uz potenciālu vispārējās spriešanas vai radošo spēju pasliktināšanos, jo modeļa svari tiek virzīti uz konkrētiem ideoloģiskiem ierobežojumiem.

Tomēr PNAS Nexus pētījumā atzīmēts, ka Ķīnas modeļi joprojām ir pārsteidzoši spējīgi objektīvās jomās, piemēram, matemātikā, kodēšanā un valodniecībā. Cenzūra šķiet ļoti mērķtiecīga. Globālās tehnoloģiju kopienas izaicinājums ir noteikt, kā šie 'ideoloģiski saskaņotie' modeļi mijiedarbosies ar pārējo pasauli, kad tie tiks integrēti globālajās piegādes ķēdēs un programmatūras ekosistēmās.

Praktiski ieteikumi tehnoloģiju profesionāļiem

Tā kā MI ainava turpina sašķelties, uzņēmumiem un izstrādātājiem šīs atšķirības ir jāpārvalda uzmanīgi. Ja strādājat ar Ķīnas LLM vai izvērtējat tos, apsveriet sekojošo:

  • Kontekstuālā apzināšanās: Saprotiet, ka Ķīnas modeļi ir optimizēti konkrētai regulatīvajai videi. Tie ir lieliski piemēroti lokalizētiem uzdevumiem, mandarīnu valodas niansēm un specifiskiem tehniskiem lietojumiem, taču tie var nebūt piemēroti atvērtiem politiskiem vai sociāliem pētījumiem.
  • Datu rezidence un atbilstība: Ja jūsu lietojumprogramma apkalpo lietotājus kontinentālajā Ķīnā, CAC atbilstoša modeļa izmantošana ir juridiska nepieciešamība. Turpretī, ja veidojat globālu rīku, apzinieties, kā šie iebūvētie filtri var ietekmēt lietotāja pieredzi.
  • Hibrīdstratēģijas: Daudzi uzņēmumi pieņem 'vairāku modeļu' pieeju, izmantojot Rietumu modeļus radošiem un analītiskiem uzdevumiem, vienlaikus izmantojot Ķīnas modeļus reģionālajām operācijām un specifiskām tehniskajām jomām, kurās tie ir izcili.
  • Auditējiet savus rezultātus: Vienmēr ieviesiet savu validācijas slāni. Neatkarīgi no tā, vai izmantojat atvērtā pirmkoda modeli vai patentētu modeli, vissvarīgākais ir nodrošināt, lai rezultāts atbilstu jūsu organizācijas ētikai un jūsu lietotāju vietējiem likumiem.

Ceļš uz priekšu

PNAS Nexus pētījuma atradumi kalpo kā atgādinājums, ka MI nav neitrāls rīks. Tas atspoguļo datus, vērtības un likumus tajā vietā, kur tas radīts. Virzoties uz 'suverēna MI' nākotni, spēja identificēt un orientēties šajās digitālajās robežās būs izšķiroša prasme jebkuram tehnoloģiju profesionālim.

Avoti:

  • PNAS Nexus: "The Great Firewall of AI" (2024/2025 pētījums)
  • Ķīnas Kibertelpas administrācijas (CAC) oficiālās vadlīnijas par ģeneratīvo MI
  • DeepSeek oficiālie tehniskie ziņojumi
  • Zhipu AI (ChatGLM) pētniecības dokumentācija
  • Stenfordas Universitātes Cilvēkcentrēta MI institūta (HAI) ziņojumi
bg
bg
bg

Uz tikšanos otrā pusē.

Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.

/ Izveidot bezmaksas kontu