Globālā sacensība par mākslīgā intelekta pārākumu bieži tiek raksturota kā cīņa par skaitļošanas jaudu un algoritmu efektivitāti. Tomēr nesen žurnālā PNAS Nexus publicēts pētījums izceļ cita veida arhitektonisko plaisu: ideoloģisko. Pētnieki atklāja, ka vadošie Ķīnas lielie valodas modeļi (LLM), tostarp DeepSeek, BaiChuan un ChatGLM, uzrāda sistēmiskas cenzūras pazīmes un saskaņotību ar valsts naratīviem, saskaroties ar politiski jutīgiem jautājumiem.
Tā kā MI kļūst par galveno saskarni, caur kuru mēs piekļūstam informācijai, šie atradumi rada kritiskus jautājumus par sadrumstalota interneta nākotni. Lai gan Rietumu modeļiem, piemēram, GPT-4 vai Claude, ir savas drošības barjeras, pētījums liecina, ka Ķīnas modeļi darbojas saskaņā ar unikālu ierobežojumu kopumu, kas izstrādāts, lai uzturētu 'sociālisma pamatvērtības' un valsts stabilitāti.
Lai izprastu šo ierobežojumu dziļumu, pētnieki izveidoja datu kopu ar vairāk nekā 100 jautājumiem, kas aptver plašu jutīgu tēmu loku, sākot no vēsturiskiem notikumiem, piemēram, Tiaņaņmeņas laukuma protestiem, līdz mūsdienu ģeopolitiskajai spriedzei un valsts vadības kritikai. Pēc tam viņi uzdeva šos jautājumus vairākiem pazīstamiem Ķīnas modeļiem un salīdzināja to rezultātus ar starptautiskajiem kritērijiem.
Rezultāti nebija tikai 'jā' vai 'nē' atbildes. Tā vietā pētījums identificēja sarežģītu izvairīšanās hierarhiju. Daži modeļi vienkārši iedarbināja stingri kodētu atteikumu, savukārt citi mēģināja novirzīt sarunu uz neitrālu tēmu vai sniegt atbildi, kas atspoguļoja oficiālos valdības ziņojumus. Tas liecina, ka cenzūra šajos modeļos nav tikai nejaušība, bet gan ir iestrādāta apmācības datos un pastiprinātā mācīšanās no cilvēku atsauksmēm (RLHF) posmos.
Pētījumā atbildes tika iedalītas trīs galvenajos uzvedības veidos: atteikums, standartizētas atbildes un tēmas maiņa. Jautājot par konkrētām politiskām personām vai jutīgiem datumiem, tādi modeļi kā ChatGLM un BaiChuan bieži sniedza standartizētus kļūdu ziņojumus vai paziņoja, ka tie 'nespēj apspriest šo tēmu'.
Interesanti, ka DeepSeek — modelis, kas guvis ievērojamu starptautisku atzinību savas efektivitātes un atvērto svaru pieejas dēļ — arī uzrādīja augstu jutīguma līmeni. Uz jautājumiem par valsts suverenitāti vai konkrētu iekšpolitiku modelis bieži vien pēc noklusējuma izmantoja neitrālu, aprakstošu toni, izvairoties no jebkādas kritiskas analīzes. Tas izceļ Ķīnas tehnoloģiju milžu galveno dilemmu: nepieciešamību radīt globāli konkurētspējīgu, augstas veiktspējas MI, vienlaikus stingri ievērojot Ķīnas Kibertelpas administrācijas (CAC) prasības.
Zemāk esošajā tabulā ir apkopota pētījuma laikā novērotā vispārējā uzvedība, kad modeļiem tika uzdoti augsta jutīguma politiskie jautājumi.
| Modeļa nosaukums | Izcelsme | Galvenā atbildes stratēģija | Jutīguma līmenis |
|---|---|---|---|
| GPT-4o | ASV | Niansēts/Atteikums (balstīts uz drošību) | Mērens |
| DeepSeek-V3 | Ķīna | Novirzīšana/Saskaņošana ar valsti | Augsts |
| ChatGLM-4 | Ķīna | Stingrs atteikums/Standartizēts ziņojums | Ļoti augsts |
| BaiChuan-2 | Ķīna | Tēmas maiņa/Neitralitāte | Augsts |
| Llama 3 | ASV | Informatīvs/Atvērts (ierobežots ar politiku) | Zems |
Lai saprastu, kāpēc šie modeļi tā uzvedas, jāskatās uz Ķīnas regulatīvo vidi. 2023. gadā CAC izdeva pagaidu pasākumus ģeneratīvā MI pakalpojumu pārvaldībai. Šie noteikumi skaidri nosaka, ka MI ģenerētajam saturam ir jāatspoguļo 'sociālisma pamatvērtības' un tajā nedrīkst būt saturs, kas 'grauj valsts varu' vai 'mazina nacionālo vienotību'.
Izstrādātājiem likmes ir augstas. Atšķirībā no Rietumu izstrādātājiem, kuri var saskarties ar sabiedrisko attiecību krīzi neobjektīva MI dēļ, Ķīnas uzņēmumiem draud iespējama licences atsaukšana vai juridiskas sankcijas, ja to modeļi ģenerē 'kaitīgu' politisko saturu. Tas ir novedis pie 'pirmsfiltra' un 'pēcfiltra' slāņu izstrādes — programmatūras, kas skenē lietotāja vaicājumu, meklējot atslēgvārdus, pirms tas vispār sasniedz LLM, un vēl viena slāņa, kas skenē rezultātu, pirms lietotājs to ierauga.
Cenzūra nav tikai sociāls vai politisks jautājums; tai ir tehniska ietekme. Ja modelis tiek intensīvi pielāgots, lai izvairītos no noteiktām tēmām, tas var ciest no tā, ko pētnieki sauc par 'saskaņošanas nodokli'. Tas attiecas uz potenciālu vispārējās spriešanas vai radošo spēju pasliktināšanos, jo modeļa svari tiek virzīti uz konkrētiem ideoloģiskiem ierobežojumiem.
Tomēr PNAS Nexus pētījumā atzīmēts, ka Ķīnas modeļi joprojām ir pārsteidzoši spējīgi objektīvās jomās, piemēram, matemātikā, kodēšanā un valodniecībā. Cenzūra šķiet ļoti mērķtiecīga. Globālās tehnoloģiju kopienas izaicinājums ir noteikt, kā šie 'ideoloģiski saskaņotie' modeļi mijiedarbosies ar pārējo pasauli, kad tie tiks integrēti globālajās piegādes ķēdēs un programmatūras ekosistēmās.
Tā kā MI ainava turpina sašķelties, uzņēmumiem un izstrādātājiem šīs atšķirības ir jāpārvalda uzmanīgi. Ja strādājat ar Ķīnas LLM vai izvērtējat tos, apsveriet sekojošo:
PNAS Nexus pētījuma atradumi kalpo kā atgādinājums, ka MI nav neitrāls rīks. Tas atspoguļo datus, vērtības un likumus tajā vietā, kur tas radīts. Virzoties uz 'suverēna MI' nākotni, spēja identificēt un orientēties šajās digitālajās robežās būs izšķiroša prasme jebkuram tehnoloģiju profesionālim.
Avoti:



Mūsu end-to-end šifrētais e-pasta un mākoņdatu glabāšanas risinājums nodrošina visefektīvākos līdzekļus drošai datu apmaiņai, garantējot jūsu datu drošību un konfidencialitāti.
/ Izveidot bezmaksas kontu