Tehisintellekt

Tehisintellekti suur tulemüür: kuidas Hiina juturobotid navigeerivad poliitilises tundlikkuses

PNAS Nexuse uuring paljastab, kuidas Hiina tehisintellekti mudelid nagu DeepSeek ja ChatGLM tsenseerivad poliitilisi küsimusi, et järgida riiklikke regulatsioone.
Tehisintellekti suur tulemüür: kuidas Hiina juturobotid navigeerivad poliitilises tundlikkuses

Globaalset võidujooksu tehisintellekti ülemvõimu pärast raamstatakse sageli kui lahingut arvutusvõimsuse ja algoritmilise tõhususe üle. Kuid hiljutine ajakirjas PNAS Nexus avaldatud uuring tõstab esile teistsuguse arhitektuurilise lõhe: ideoloogilise. Teadlased leidsid, et juhtivad Hiina suured keelemudelid (LLM-id), sealhulgas DeepSeek, BaiChuan ja ChatGLM, näitavad poliitiliselt tundlike päringute puhul süsteemseid tsensuurimustreid ja kooskõla riiklike narratiividega.

Kuna tehisintellektist on saamas peamine liides, mille kaudu me infole ligi pääseme, tekitavad need leiud kriitilisi küsimusi killustatud interneti tuleviku kohta. Kuigi lääne mudelitel, nagu GPT-4 või Claude, on oma turvapiirded, viitab uuring sellele, et Hiina mudelid töötavad unikaalsete piirangute kogumi all, mis on loodud "sotsialistlike põhiväärtuste" ja riikliku stabiilsuse toetamiseks.

Digitaalse auditi metoodika

Nende piirangute sügavuse mõistmiseks koostasid teadlased enam kui 100 küsimusest koosneva andmestiku, mis hõlmas mitmesuguseid tundlikke teemasid alates ajaloolistest sündmustest, nagu Tiananmeni väljaku protestid, kuni tänapäevaste geopoliitiliste pingete ja riigijuhtide kriitikani. Seejärel esitati need küsimused mitmele tuntud Hiina mudelile ja võrreldi nende väljundeid rahvusvaheliste võrdlusalustega.

Tulemused ei piirdunud vaid "jah" või "ei" vastustega. Selle asemel tuvastas uuring keeruka vältimishierarhia. Mõned mudelid käivitasid lihtsalt koodi sisse kirjutatud keeldumise, teised aga püüdsid suunata vestlust neutraalsele pinnale või andsid vastuse, mis peegeldas ametlikke valitsuse valgeid raamatuid. See viitab sellele, et tsensuur nendes mudelites ei ole lihtsalt järelmõte, vaid on sisse põimitud nii treeningandmetesse kui ka inimtagasisidel põhineva tugevdusõppe (RLHF) etappidesse.

Vaikimise ja ümbersuunamise mustrid

Uuring liigitas vastused kolme peamisse käitumisviisi: keeldumine, stampvastused ja teemavahetus. Kui küsiti konkreetsete poliitiliste isikute või tundlike kuupäevade kohta, kuvasid sellised mudelid nagu ChatGLM ja BaiChuan sageli standardseid veateateid või teatasid, et nad "ei saa seda teemat arutada".

Huvitaval kombel näitas kõrget tundlikkuse taset ka DeepSeek — mudel, mis on saavutanud märkimisväärset rahvusvahelist tähelepanu oma tõhususe ja avatud kaaludega lähenemisviisi tõttu. Kui mudelile esitati küsimusi riikliku suveräänsuse või konkreetsete sisepoliitikate kohta, valis see sageli neutraalse, kirjeldava tooni, mis vältis igasugust kriitilist analüüsi. See rõhutab Hiina tehnoloogiahiidude keskset dilemmat: vajadust luua globaalselt konkurentsivõimeline ja võimekas tehisintellekt, jäädes samal ajal rangelt vastavusse Hiina küberruumi administratsiooni (CAC) nõuetega.

Võrdlev jõudlus: kodumaine vs. rahvusvaheline

Järgmine tabel võtab kokku uuringu käigus täheldatud üldise käitumise, kui mudelitele esitati kõrge tundlikkusega poliitilisi viipeid.

Mudeli nimi Päritolu Peamine vastamisstrateegia Tundlikkuse tase
GPT-4o USA Nüansseeritud/Keeldumine (ohutuspõhine) Keskmine
DeepSeek-V3 Hiina Ümbersuunamine/Riiklik kooskõlastus Kõrge
ChatGLM-4 Hiina Range keeldumine/Standardteade Väga kõrge
BaiChuan-2 Hiina Teemavahetus/Neutraalsus Kõrge
Llama 3 USA Informatiivne/Avatud (poliitikapiirangutega) Madal

Regulatiivne käsi: miks on tsensuur kohustuslik

Mõistmaks, miks need mudelid nii käituvad, tuleb vaadata Hiina regulatiivset maastikku. 2023. aastal avaldas CAC ajutised meetmed generatiivse tehisintellekti teenuste haldamiseks. Need reeglid sätestavad selgesõnaliselt, et tehisintellekti loodud sisu peab peegeldama "sotsialistlikke põhiväärtusi" ega tohi sisaldada sisu, mis "õõnestab riigivõimu" või "kahjustab riiklikku ühtsust".

Arendajate jaoks on panused kõrged. Erinevalt lääne arendajatest, kes võivad silmitsi seista avalike suhete kriisiga kallutatud tehisintellekti tõttu, ähvardab Hiina ettevõtteid litsentsi tühistamine või juriidilised karistused, kui nende mudelid loovad "kahjulikku" poliitilist sisu. See on viinud "eelfiltri" ja "järelfiltri" kihtide väljatöötamiseni — tarkvarani, mis skaneerib kasutaja viibet märksõnade suhtes enne, kui see üldse LLM-ini jõuab, ja teise kihi, mis skaneerib väljundit enne, kui kasutaja seda näeb.

Kooskõlastamise tehniline hind

Tsensuur ei ole ainult sotsiaalne või poliitiline küsimus; sellel on tehnilised tagajärjed. Kui mudelit on teatud teemade vältimiseks tugevalt peenhäälestatud, võib see kannatada selle all, mida teadlased nimetavad "kooskõlastusmaksuks" (alignment tax). See viitab üldise loogilise arutlemise või loomevõime võimalikule halvenemisele, kuna mudeli parameetreid surutakse spetsiifiliste ideoloogiliste piirangute suunas.

Siiski märkis PNAS Nexus uuring, et Hiina mudelid on jätkuvalt märkimisväärselt võimekad objektiivsetes valdkondades nagu matemaatika, kodeerimine ja lingvistika. Tsensuur näib olevat kirurgiliselt täpne. Globaalse tehnoloogiakogukonna väljakutse on kindlaks teha, kuidas need "ideoloogiliselt kooskõlastatud" mudelid hakkavad suhtlema ülejäänud maailmaga, kui need integreeritakse globaalsetesse tarneahelatesse ja tarkvaraökosüsteemidesse.

Praktilised soovitused tehnoloogiaspetsialistidele

Kuna tehisintellekti maastik jätkab hargnemist, peavad ettevõtted ja arendajad nendes erinevustes hoolikalt navigeerima. Kui töötate Hiina LLM-idega või hindate neid, kaaluge järgmist:

  • Kontekstuaalne teadlikkus: Mõistke, et Hiina mudelid on optimeeritud konkreetse regulatiivse keskkonna jaoks. Need on suurepärased lokaliseeritud ülesannete, mandariini keele nüansside ja spetsiifiliste tehniliste rakenduste jaoks, kuid ei pruugi sobida avatud poliitiliseks või sotsiaalseks uurimistööks.
  • Andmete asukoht ja vastavus: Kui teie rakendus teenindab kasutajaid Mandri-Hiinas, on CAC-ile vastava mudeli kasutamine juriidiline vajadus. Vastupidi, kui ehitate globaalset tööriista, olge teadlik sellest, kuidas need sisseehitatud filtrid võivad mõjutada kasutajakogemust.
  • Hübriidstrateegiad: Paljud ettevõtted võtavad kasutusele "mitme mudeli" lähenemisviisi, kasutades lääne mudeleid loominguliste ja analüütiliste ülesannete jaoks, samal ajal rakendades Hiina mudeleid piirkondlikes operatsioonides ja spetsiifilistes tehnilistes valdkondades, kus need on tasemel.
  • Auditeerige oma väljundeid: Rakendage alati oma valideerimiskiht. Olenemata sellest, kas kasutate avatud lähtekoodiga või suletud mudelit, on ülioluline tagada, et väljund oleks kooskõlas teie organisatsiooni eetika ja kasutajate kohalike seadustega.

Tee edasi

PNAS Nexus uuringu tulemused tuletavad meelde, et tehisintellekt ei ole neutraalne tööriist. See peegeldab oma päritolukoha andmeid, väärtusi ja seadusi. Liikudes "suveräänse tehisintellekti" tuleviku suunas, on võime neid digitaalseid piire tuvastada ja neis navigeerida otsustava tähtsusega oskus igale tehnoloogiasektori professionaalile.

Allikad:

  • PNAS Nexus: "The Great Firewall of AI" (2024/2025 Study)
  • Cyberspace Administration of China (CAC) Official Guidelines on Generative AI
  • DeepSeek Official Technical Reports
  • Zhipu AI (ChatGLM) Research Documentation
  • Stanford University Institute for Human-Centered AI (HAI) Reports
bg
bg
bg

Kohtumiseni teisel poolel.

Meie läbivalt krüpteeritud e-posti ja pilvesalvestuse lahendus pakub kõige võimsamaid vahendeid turvaliseks andmevahetuseks, tagades teie andmete turvalisuse ja privaatsuse.

/ Tasuta konto loomin