La course mondiale à la suprématie en matière d'intelligence artificielle est souvent présentée comme une bataille de puissance de calcul et d'efficacité algorithmique. Cependant, une étude récente publiée dans la revue PNAS Nexus met en lumière un type de fracture architecturale différent : la fracture idéologique. Des chercheurs ont découvert que les principaux modèles de langage (LLM) chinois, notamment DeepSeek, BaiChuan et ChatGLM, présentent des modèles systémiques de censure et d'alignement avec les récits de l'État lorsqu'ils sont confrontés à des questions politiquement sensibles.
Alors que l'IA devient l'interface principale par laquelle nous accédons à l'information, ces conclusions soulèvent des questions cruciales sur l'avenir d'un internet fragmenté. Bien que les modèles occidentaux comme GPT-4 ou Claude possèdent leurs propres garde-fous de sécurité, l'étude suggère que les modèles chinois fonctionnent sous un ensemble unique de contraintes conçues pour maintenir les « valeurs socialistes fondamentales » et la stabilité de l'État.
Pour comprendre la profondeur de ces restrictions, les chercheurs ont élaboré un ensemble de données de plus de 100 questions couvrant un large éventail de sujets sensibles, allant d'événements historiques comme les manifestations de la place Tiananmen aux tensions géopolitiques contemporaines et aux critiques des dirigeants de l'État. Ils ont ensuite sollicité plusieurs modèles chinois de premier plan et comparé leurs résultats à des références internationales.
Les résultats n'étaient pas simplement une question de réponses par « oui » ou par « non ». L'étude a plutôt identifié une hiérarchie sophistiquée d'évitement. Certains modèles déclenchaient simplement un refus codé en dur, tandis que d'autres tentaient de faire pivoter la conversation vers un terrain neutre ou fournissaient une réponse qui reflétait les livres blancs officiels du gouvernement. Cela suggère que la censure dans ces modèles n'est pas seulement une réflexion après coup, mais qu'elle est intégrée dans les données d'entraînement et les étapes d'apprentissage par renforcement à partir des commentaires humains (RLHF).
L'étude a classé les réponses en trois comportements principaux : le refus, les réponses types et le changement de sujet. Lorsqu'on les interroge sur des personnalités politiques spécifiques ou des dates sensibles, des modèles comme ChatGLM et BaiChuan renvoient fréquemment des messages d'erreur standardisés ou déclarent qu'ils sont « incapables de discuter de ce sujet ».
Fait intéressant, DeepSeek — un modèle qui a acquis une traction internationale significative pour son efficacité et son approche en poids ouverts — a également montré des niveaux élevés de sensibilité. Lorsqu'il est sollicité par des questions sur la souveraineté de l'État ou des politiques intérieures spécifiques, le modèle adopte souvent par défaut un ton descriptif et neutre qui évite toute analyse critique. Cela met en évidence une tension centrale pour les géants technologiques chinois : la nécessité de créer une IA hautement performante et compétitive à l'échelle mondiale tout en restant strictement conforme à l'Administration du cyberespace de Chine (CAC).
Le tableau suivant résume le comportement général observé au cours de l'étude lorsque les modèles ont été confrontés à des questions politiques de haute sensibilité.
| Nom du modèle | Origine | Stratégie de réponse principale | Niveau de sensibilité |
|---|---|---|---|
| GPT-4o | USA | Nuancé/Refus (Basé sur la sécurité) | Modéré |
| DeepSeek-V3 | Chine | Redirection/Alignement étatique | Élevé |
| ChatGLM-4 | Chine | Refus strict/Message standardisé | Très élevé |
| BaiChuan-2 | Chine | Changement de sujet/Neutralité | Élevé |
| Llama 3 | USA | Informatif/Ouvert (Limité par la politique) | Faible |
Pour comprendre pourquoi ces modèles se comportent ainsi, il faut examiner le paysage réglementaire en Chine. En 2023, la CAC a publié des mesures provisoires pour la gestion des services d'IA générative. Ces règles stipulent explicitement que le contenu généré par l'IA doit refléter les « valeurs socialistes fondamentales » et ne doit pas contenir de contenu qui « subvertit le pouvoir de l'État » ou « mine l'unité nationale ».
Pour les développeurs, les enjeux sont élevés. Contrairement aux développeurs occidentaux qui pourraient faire face à un retour de bâton des relations publiques pour une IA biaisée, les entreprises chinoises font face à une révocation potentielle de licence ou à des sanctions juridiques si leurs modèles génèrent un contenu politique « nuisible ». Cela a conduit au développement de couches de « pré-filtrage » et de « post-filtrage » — des logiciels qui analysent la requête d'un utilisateur à la recherche de mots-clés avant même qu'elle n'atteigne le LLM, et d'autres qui analysent la sortie avant que l'utilisateur ne la voie.
La censure n'est pas seulement un problème social ou politique ; elle a des implications techniques. Lorsqu'un modèle est fortement affiné pour éviter certains sujets, il peut souffrir de ce que les chercheurs appellent la « taxe d'alignement ». Cela fait référence à une dégradation potentielle du raisonnement général ou des capacités créatives parce que les poids du modèle sont tirés vers des contraintes idéologiques spécifiques.
Cependant, l'étude PNAS Nexus a noté que les modèles chinois restent remarquablement performants dans des domaines objectifs comme les mathématiques, le codage et la linguistique. La censure semble être hautement chirurgicale. Le défi pour la communauté technologique mondiale est de déterminer comment ces modèles « alignés idéologiquement » interagiront avec le reste du monde à mesure qu'ils seront intégrés dans les chaînes d'approvisionnement mondiales et les écosystèmes logiciels.
Alors que le paysage de l'IA continue de se bifurquer, les entreprises et les développeurs doivent naviguer avec prudence dans ces différences. Si vous travaillez avec des LLM chinois ou si vous les évaluez, considérez les points suivants :
Les conclusions de l'étude PNAS Nexus rappellent que l'IA n'est pas un outil neutre. Elle est le reflet des données, des valeurs et des lois de son lieu d'origine. Alors que nous nous dirigeons vers un avenir d'« IA souveraine », la capacité à identifier et à naviguer dans ces frontières numériques sera une compétence cruciale pour tout professionnel de la technologie.
Sources :



Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.
/ Créer un compte gratuit