Alors que les électeurs se tournent de plus en plus vers les grands modèles de langage (LLM) pour obtenir des résumés rapides de paysages politiques complexes, l'Autorité néerlandaise de protection des données (Autoriteit Persoonsgegevens ou AP) a lancé un avertissement sérieux. Une étude récente menée par le régulateur révèle que les chatbots IA populaires — y compris les leaders du secteur comme ChatGPT et Claude — sont considérablement mal équipés pour guider les électeurs lors des élections locales, ignorant souvent les partis citoyens mêmes qui définissent la gouvernance municipale.
L'enquête arrive à un moment critique pour la démocratie numérique. À l'approche des élections municipales de 2026, l'AP a cherché à déterminer si l'IA pouvait servir de « Stemwijzer » numérique fiable (la célèbre boussole électorale néerlandaise). Les résultats suggèrent que bien que ces outils soient techniquement impressionnants, leur dépendance à l'égard de jeux de données mondiaux crée un décalage dangereux avec la réalité locale.
Aux Pays-Bas, les élections municipales sont fréquemment dominées par des partis d'intérêt local qui n'ont pas de présence nationale. Ces groupes captent souvent une part importante des voix, traitant de questions hyper-locales allant du zonage des quartiers aux transports régionaux. Cependant, les tests effectués par l'AP sur cinq modèles majeurs — ChatGPT, Claude, Gemini, Grok et Mistral — ont révélé une omission flagrante : moins d'un pour cent des recommandations de vote des chatbots mentionnaient ne serait-ce qu'un parti local spécifique.
Cet « effacement » crée un paysage numérique biaisé. Lorsqu'un électeur demande conseil à une IA sur des enjeux locaux, le modèle a tendance à se tourner par défaut vers des entités nationales bien connues comme le VVD, le PVV ou GroenLinks-PvdA, car ces partis disposent d'une empreinte numérique plus importante. Pour un parti local qui n'existe que dans une municipalité spécifique, les données d'entraînement de l'IA sont souvent trop minces pour fournir une représentation précise, réduisant ainsi au silence les voix locales dans le processus démocratique.
Au-delà de l'omission des partis locaux, l'étude de l'AP a mis en évidence le problème persistant des « hallucinations ». Dans plusieurs cas, les chatbots ont attribué des positions politiques à des partis qui étaient soit entièrement inventées, soit diamétralement opposées au programme réel du parti.
Le danger réside ici dans la présentation. Contrairement à un moteur de recherche traditionnel qui fournit une liste de sources que l'utilisateur peut vérifier, un chatbot délivre une réponse conversationnelle et autoritaire. Cette « illusion de neutralité » peut amener les électeurs à accepter des informations incorrectes comme des faits objectifs. L'AP note que, parce que la logique interne de ces modèles est une « boîte noire », il est presque impossible pour un citoyen de retracer comment une recommandation spécifique a été formulée ou d'identifier les biais inhérents aux données d'entraînement.
Selon l'AP, l'utilisation de l'IA comme aide au vote principale pose trois risques distincts pour le processus démocratique :
Bien que tous les modèles aient éprouvé des difficultés avec les nuances locales, l'AP a noté de légères variations dans la gestion des requêtes politiques.
| Modèle d'IA | Reconnaissance des partis locaux | Précision des politiques | Ton/Neutralité |
|---|---|---|---|
| ChatGPT (OpenAI) | Très faible | Modérée | Très conversationnel |
| Claude (Anthropic) | Très faible | Élevée | Prudent/Enclin au refus |
| Gemini (Google) | Faible | Modérée | Intégré à la recherche |
| Grok (xAI) | Très faible | Variable | Moins filtré |
| Mistral (Mistral AI) | Faible | Modérée | Concis |
Note : « Faible » indique moins de 1 % de mentions des partis locaux dans tous les scénarios de test.
Si vous recherchez une clarté politique, l'AP suggère que l'IA devrait, tout au plus, être un point de départ pour une recherche plus large plutôt qu'une destination finale. Voici comment naviguer en toute sécurité dans l'isoloir numérique :
Les conclusions de l'Autorité néerlandaise de protection des données servent d'appel à l'action tant pour les développeurs que pour les régulateurs. Alors que la loi européenne sur l'IA (AI Act) commence à prendre forme, la transparence des modèles utilisés dans les processus démocratiques fera probablement l'objet d'un examen plus strict. Pour l'instant, le message de l'AP est clair : lorsqu'il s'agit de l'urne, l'intelligence humaine — et les connaissances locales — restent irremplaçables.
Sources :



Notre solution de messagerie cryptée de bout en bout et de stockage en nuage constitue le moyen le plus puissant d'échanger des données en toute sécurité, garantissant ainsi la sûreté et la confidentialité de vos données.
/ Créer un compte gratuit