La corsa globale per la supremazia nell'intelligenza artificiale è spesso inquadrata come una battaglia di potenza di calcolo ed efficienza algoritmica. Tuttavia, un recente studio pubblicato sulla rivista PNAS Nexus evidenzia un diverso tipo di divario architettonico: quello ideologico. I ricercatori hanno scoperto che i principali Large Language Models (LLM) cinesi, tra cui DeepSeek, BaiChuan e ChatGLM, mostrano modelli sistemici di censura e allineamento con le narrazioni statali quando si confrontano con quesiti politicamente sensibili.
Mentre l'IA diventa l'interfaccia primaria attraverso cui accediamo alle informazioni, questi risultati sollevano questioni critiche sul futuro di un internet frammentato. Sebbene i modelli occidentali come GPT-4 o Claude abbiano i propri guardrail di sicurezza, lo studio suggerisce che i modelli cinesi operino sotto un insieme unico di vincoli progettati per sostenere i "valori socialisti fondamentali" e la stabilità dello Stato.
Per comprendere la profondità di queste restrizioni, i ricercatori hanno curato un dataset di oltre 100 domande che coprono uno spettro di argomenti sensibili, che vanno da eventi storici come le proteste di Piazza Tienanmen a tensioni geopolitiche contemporanee e critiche alla leadership statale. Hanno quindi interrogato diversi modelli cinesi di alto profilo e confrontato i loro output con benchmark internazionali.
I risultati non sono stati semplicemente una questione di risposte "sì" o "no". Invece, lo studio ha identificato una sofisticata gerarchia di evitamento. Alcuni modelli attivavano semplicemente un rifiuto codificato, mentre altri tentavano di deviare la conversazione verso un terreno neutro o fornivano una risposta che rispecchiava i libri bianchi ufficiali del governo. Ciò suggerisce che la censura in questi modelli non è solo un ripensamento, ma è integrata nei dati di addestramento e nelle fasi di apprendimento per rinforzo da feedback umano (RLHF).
Lo studio ha categorizzato le risposte in tre comportamenti primari: rifiuto, risposte preconfezionate e spostamento dell'argomento. Quando interrogati su specifiche figure politiche o date sensibili, modelli come ChatGLM e BaiChuan hanno frequentemente restituito messaggi di errore standardizzati o dichiarato di essere "incapaci di discutere questo argomento".
Interessante notare che DeepSeek — un modello che ha guadagnato una significativa trazione internazionale per la sua efficienza e l'approccio open-weights — ha mostrato anch'esso alti livelli di sensibilità. Di fronte a domande sulla sovranità statale o su specifiche politiche interne, il modello spesso passava a un tono neutro e descrittivo che evitava qualsiasi analisi critica. Ciò evidenzia una tensione centrale per i giganti tecnologici cinesi: la necessità di creare un'IA altamente capace e competitiva a livello globale, pur rimanendo rigorosamente conformi alla Cyberspace Administration of China (CAC).
La seguente tabella riassume il comportamento generale osservato durante lo studio quando ai modelli sono stati presentati prompt politici ad alta sensibilità.
| Nome Modello | Origine | Strategia di Risposta Primaria | Livello di Sensibilità |
|---|---|---|---|
| GPT-4o | USA | Sfumata/Rifiuto (basato sulla sicurezza) | Moderato |
| DeepSeek-V3 | Cina | Reindirizzamento/Allineamento Statale | Alto |
| ChatGLM-4 | Cina | Rifiuto Netto/Messaggio Standardizzato | Molto Alto |
| BaiChuan-2 | Cina | Spostamento Argomento/Neutralità | Alto |
| Llama 3 | USA | Informativo/Aperto (limitato dalle policy) | Basso |
Per capire perché questi modelli si comportano in questo modo, bisogna guardare al panorama normativo in Cina. Nel 2023, la CAC ha rilasciato misure provvisorie per la gestione dei servizi di IA generativa. Queste regole stabiliscono esplicitamente che i contenuti generati dall'IA devono riflettere i "valori socialisti fondamentali" e non devono contenere contenuti che "sovvertano il potere dello Stato" o "minino l'unità nazionale".
Per gli sviluppatori, la posta in gioco è alta. A differenza degli sviluppatori occidentali che potrebbero affrontare reazioni negative nelle pubbliche relazioni per un'IA di parte, le aziende cinesi rischiano la potenziale revoca della licenza o sanzioni legali se i loro modelli generano contenuti politici "dannosi". Ciò ha portato allo sviluppo di livelli di "pre-filtro" e "post-filtro" — software che scansionano il prompt dell'utente alla ricerca di parole chiave prima ancora che raggiunga l'LLM, e un altro che scansiona l'output prima che l'utente lo veda.
La censura non è solo una questione sociale o politica; ha implicazioni tecniche. Quando un modello è pesantemente ottimizzato per evitare certi argomenti, può soffrire di quella che i ricercatori chiamano "tassa di allineamento". Questo si riferisce a un potenziale degrado nel ragionamento generale o nelle capacità creative perché i pesi del modello vengono spinti verso specifici vincoli ideologici.
Tuttavia, lo studio di PNAS Nexus ha notato che i modelli cinesi rimangono straordinariamente capaci in campi oggettivi come la matematica, la programmazione e la linguistica. La censura appare altamente chirurgica. La sfida per la comunità tecnologica globale è determinare come questi modelli "ideologicamente allineati" interagiranno con il resto del mondo man mano che verranno integrati nelle catene di approvvigionamento globali e negli ecosistemi software.
Mentre il panorama dell'IA continua a biforcarsi, le aziende e gli sviluppatori devono navigare queste differenze con attenzione. Se state lavorando con o valutando LLM cinesi, considerate quanto segue:
I risultati dello studio PNAS Nexus servono a ricordare che l'IA non è uno strumento neutro. È un riflesso dei dati, dei valori e delle leggi del suo luogo di origine. Mentre ci muoviamo verso un futuro di "IA Sovrana", la capacità di identificare e navigare questi confini digitali sarà una competenza cruciale per ogni professionista tech.
Fonti:



La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.
/ Creare un account gratuito