Da sich Wähler zunehmend an Large Language Models (LLMs) wenden, um schnelle Zusammenfassungen komplexer politischer Landschaften zu erhalten, hat die niederländische Datenschutzbehörde (Autoriteit Persoonsgegevens oder AP) einen ernüchternden Realitätscheck veröffentlicht. Eine aktuelle Studie der Aufsichtsbehörde zeigt, dass populäre KI-Chatbots – darunter Branchenführer wie ChatGPT und Claude – erheblich unzureichend ausgestattet sind, um Wähler bei Kommunalwahlen zu unterstützen, wobei sie oft genau die lokalen Parteien ignorieren, die die kommunale Verwaltung prägen.
Die Untersuchung erfolgt zu einem kritischen Zeitpunkt für die digitale Demokratie. Angesichts der bevorstehenden Kommunalwahlen im Jahr 2026 wollte die AP feststellen, ob KI als zuverlässiger digitaler „Stemwijzer“ (der beliebte niederländische Wahlkompass) dienen kann. Die Ergebnisse legen nahe, dass diese Werkzeuge zwar technisch beeindruckend sind, ihre Abhängigkeit von globalen Datensätzen jedoch eine gefährliche Entkopplung von der lokalen Realität schafft.
In den Niederlanden werden Kommunalwahlen häufig von lokalen Interessenparteien dominiert, die keine nationale Präsenz haben. Diese Gruppen gewinnen oft einen erheblichen Teil der Stimmen und befassen sich mit hyperlokalen Themen, von der Nachbarschaftsplanung bis hin zum regionalen Nahverkehr. Die Tests der AP an fünf großen Modellen – ChatGPT, Claude, Gemini, Grok und Mistral – ergaben jedoch eine erschreckende Auslassung: Weniger als ein Prozent der Wahlempfehlungen der Chatbots erwähnte überhaupt eine spezifische lokale Partei.
Diese „Auslöschung“ schafft eine verzerrte digitale Landschaft. Wenn ein Wähler eine KI um Rat zu lokalen Themen bittet, greift das Modell tendenziell auf bekannte nationale Einheiten wie die VVD, PVV oder GroenLinks-PvdA zurück, da diese Parteien einen größeren digitalen Fußabdruck haben. Für eine lokale Partei, die nur in einer bestimmten Gemeinde existiert, sind die Trainingsdaten der KI oft zu dünn, um eine genaue Darstellung zu liefern, was lokale Stimmen im demokratischen Prozess effektiv verstummen lässt.
Neben dem Ignorieren lokaler Parteien hob die AP-Studie das hartnäckige Problem der „Halluzinationen“ hervor. In mehreren Fällen schrieben Chatbots Parteien politische Positionen zu, die entweder völlig erfunden waren oder dem tatsächlichen Manifest der Partei diametral entgegenstanden.
Die Gefahr liegt hier in der Präsentation. Im Gegensatz zu einer herkömmlichen Suchmaschine, die eine Liste von Quellen zur Überprüfung durch den Benutzer bereitstellt, liefert ein Chatbot eine dialogorientierte, autoritäre Antwort. Diese „Illusion der Neutralität“ kann dazu führen, dass Wähler falsche Informationen als objektive Fakten akzeptieren. Die AP stellt fest, dass es für einen Bürger fast unmöglich ist, nachzuvollziehen, wie eine bestimmte Empfehlung zustande kam oder die den Trainingsdaten innewohnenden Vorurteile zu identifizieren, da die interne Logik dieser Modelle eine „Black Box“ ist.
Nach Angaben der AP birgt der Einsatz von KI als primäre Wahlhilfe drei deutliche Risiken für den demokratischen Prozess:
Obwohl alle Modelle mit lokalen Nuancen zu kämpfen hatten, stellte die AP leichte Variationen im Umgang mit politischen Anfragen fest.
| KI-Modell | Erkennung lokaler Parteien | Genauigkeit der Programmatik | Tonfall/Neutralität |
|---|---|---|---|
| ChatGPT (OpenAI) | Sehr niedrig | Mittelmäßig | Stark dialogorientiert |
| Claude (Anthropic) | Sehr niedrig | Hoch | Vorsichtig/Verweigernd |
| Gemini (Google) | Niedrig | Mittelmäßig | Integriert in Suche |
| Grok (xAI) | Sehr niedrig | Variabel | Weniger gefiltert |
| Mistral (Mistral AI) | Niedrig | Mittelmäßig | Prägnant |
Hinweis: „Niedrig“ bedeutet weniger als 1 % Erwähnung lokaler Parteien über alle Testszenarien hinweg.
Wenn Sie politische Klarheit suchen, schlägt die AP vor, dass KI höchstens ein Ausgangspunkt für eine breitere Recherche sein sollte und nicht das Endziel. So navigieren Sie sicher durch die digitale Wahlkabine:
Die Ergebnisse der niederländischen Datenschutzbehörde dienen als Aufruf zum Handeln für Entwickler und Regulierungsbehörden gleichermaßen. Da der europäische KI-Gesetz (AI Act) Gestalt annimmt, wird die Transparenz von Modellen, die in demokratischen Prozessen eingesetzt werden, wahrscheinlich einer strengeren Prüfung unterzogen. Vorerst ist die Botschaft der AP klar: Wenn es um die Wahlurne geht, bleibt die menschliche Intelligenz – und das lokale Wissen – unersetzlich.
Quellen:



Unsere Ende-zu-Ende-verschlüsselte E-Mail- und Cloud-Speicherlösung bietet die leistungsfähigsten Mittel für den sicheren Datenaustausch und gewährleistet die Sicherheit und den Schutz Ihrer Daten.
/ Kostenloses Konto erstellen