Ist KI politisch neutral? – Wahl-O-Mat-Test enthüllt klare Tendenz bei ChatGPT
Wie politisch neutral ist KI? Eine Studie zeigt: ChatGPT & Co. tendieren bei politischen Thesen auffällig zum Mitte-Links-Spektrum.
Im Test mit dem Wahl-O-Mat zeigen KI-Modelle wie ChatGPT eine erkennbare politische Tendenz. © Unsplash
Digitale Assistenten haben sich innerhalb weniger Jahre zu einer festen Größe im Alltag entwickelt. Sie erklären komplizierte Begriffe, fassen Debatten zusammen und liefern schnelle Orientierung. Gerade in Wahlzeiten greifen viele Menschen auf solche Systeme zurück, um sich einen Überblick zu verschaffen. Aber Achtung: Wenn eine KI politische Aussagen bewertet, kann sie indirekt beeinflussen, wie Themen wahrgenommen werden. Das betrifft nicht nur einzelne Argumente, sondern auch das Bild ganzer Parteien. Deshalb stellt sich die Frage: Sind solche KI-Systeme tatsächlich politisch neutral – oder folgen sie einer erkennbaren Richtung?
Eine Untersuchung der Hochschule München liefert darauf eine klare Antwort. Professorin Anna Kruspe und ihre Masterstudentin Buket Kurtulus nahmen drei Systeme unter die Lupe: ChatGPT, Grok und DeepSeek. Alle drei gehören zu den derzeit prominentesten Chatbots.
Der Wahl-O-Mat als Realitätscheck
Als Prüfwerkzeug diente der Wahl-O-Mat zur Bundestagswahl 2025. Das Online-Angebot der Bundeszentrale für politische Bildung umfasst 38 Aussagen zu zentralen politischen Fragen. Themen sind unter anderem Migration, Klimaschutz, Wirtschaftspolitik oder soziale Sicherung. Normalerweise beantworten Bürger diese Thesen mit „stimme zu“, „neutral“ oder „stimme nicht zu“. Anschließend berechnet das System die Übereinstimmung mit Parteiprogrammen. In der Untersuchung übernahmen nun die Chatbots die Rolle der Wähler.
Jede einzelne Aussage wurde 100-mal abgefragt, sowohl auf Deutsch als auch auf Englisch. So kamen pro Modell 3800 Antworten zusammen. Durch diese Wiederholungen ließen sich zufällige Schwankungen erkennen und ausgleichen.
Deutliche Nähe zu Grünen und SPD
Die Ergebnisse zeigen ein konsistentes Bild. Alle drei Modelle entwickelten eigene politische Antwortmuster. Sie gaben nicht einfach bestehende Parteipositionen wieder, sondern legten sich selbst fest. Am stärksten war die Übereinstimmung mit Bündnis 90/Die Grünen und der SPD. Die geringste Nähe bestand zur AfD. Für ChatGPT ergaben sich folgende Werte:
- Bündnis 90/Die Grünen: 0,58
- Die Linke: 0,58
- SPD: 0,55
- CDU/CSU: 0,26
- FDP: 0,34
- AfD: 0,11
Ein Wert von 0,11 bedeutet, dass nur etwa vier von 38 Aussagen mit der AfD-Position übereinstimmten. Die Forscherinnen schreiben: „Die Ergebnisse zeigen eine konsistente Tendenz nach links über alle Modelle hinweg.“ Gleichzeitig ordnen sie ein:
Es handelt sich eher um eine Tendenz als um klare Parteilichkeit.
Die Abstände zwischen den Parteien bleiben vergleichsweise gering. Das spricht für eine erkennbare Richtung, nicht für eine feste Parteibindung.
Überraschend war für die Wissenschaftlerinnen, wie ähnlich sich die drei Systeme verhielten. „Es ist bemerkenswert, dass die Modelle sich tendenziell alle ‚einig‘ waren“, heißt es in der Auswertung. Ob ChatGPT, Grok oder DeepSeek – die politische Grundrichtung wich kaum voneinander ab. Unterschiede zeigten sich eher im Detail, nicht in der grundlegenden Tendenz.
Häufige Neutralität als Sicherheitsstrategie
Ein weiterer Befund betrifft die Antwortstrategie der Modelle. Während Parteien im Wahl-O-Mat fast immer klar zustimmen oder ablehnen, griffen die KI-Systeme deutlich häufiger zur Option „neutral“.
Diese Zurückhaltung verändert das Gesamtbild. Die Modelle positionieren sich seltener eindeutig und bleiben öfter im mittleren Bereich. Das wirkt wie eine Absicherungslogik: Statt klare politische Kanten zu zeigen, vermeiden sie zugespitzte Aussagen.
In der statistischen Auswertung entsteht dadurch ein eigenes Profil. Die Systeme liegen zwar näher bei Parteien aus dem Mitte-Links-Spektrum, decken sich jedoch mit keiner politischen Kraft vollständig. Sie folgen erkennbaren Mustern, bleiben aber zugleich vorsichtiger als reale Parteiprogramme.
Sprache verändert die Ergebnisse
Die Sprache der Fragestellung hatte messbaren Einfluss. Wurden die Aussagen auf Deutsch gestellt, stieg die Übereinstimmung mit Parteipositionen deutlich an. Die Modelle rückten insgesamt näher an reale Parteiprogramme heran. Das deutet darauf hin, dass Formulierungen und sprachlicher Kontext eine Rolle spielen. Politische Begriffe entfalten in unterschiedlichen Sprachräumen offenbar eine andere Wirkung.
Nicht jede Frage führte zu stabilen Antworten. Besonders bei stark diskutierten Themen zeigten sich größere Schwankungen. Dazu zählten unter anderem Asylpolitik, der Religionsbezug im Grundgesetz und das Streikrecht. Beim Modell Grok kam es hier häufiger zu Antwortverweigerungen. DeepSeek zeigte insgesamt die konstantesten Ergebnisse. ChatGPT lag im Mittelfeld.
Warum KI-Antworten Wahlen beeinflussen können
Der Wahl-O-Mat wurde bei der letzten Bundestagswahl mehr als 26 Millionen Mal genutzt. KI-Tools gewinnen ebenfalls rasant an Reichweite. Immer mehr Menschen greifen auch bei politischen Fragen zuerst zum Chatbot. Kruspe warnt deshalb: „Wir laufen Gefahr, dass die KI nur bestimmte Perspektiven spiegelt. Langfristig besteht so auch das Risiko politischer Einflussnahme.“
Sie fordert mehr Transparenz über Trainingsdaten, Entscheidungslogiken und Grenzen solcher Systeme. Außerdem plädiert sie für unabhängige europäische Modelle, die auf einer breiten und ausgewogenen Datengrundlage beruhen.
Kurz zusammengefasst:
- Eine Studie der Hochschule München zeigt: KI-Systeme wie ChatGPT sind bei politischen Fragen nicht vollständig politisch neutral, sondern tendieren im Wahl-O-Mat-Test häufiger zum Mitte-Links-Spektrum.
- Im Vergleich mit 38 Thesen und 100 Durchläufen pro Frage stimmten die Modelle besonders oft mit Grünen und SPD überein, am seltensten mit der AfD, wählten jedoch auffällig häufig die Antwort „neutral“.
- Da Millionen Menschen politische Informationen über KI abrufen, können solche Antwortmuster langfristig beeinflussen, wie Parteien und Themen wahrgenommen werden – Transparenz wird deshalb zunehmend wichtiger.
Übrigens: Während Studien zeigen, dass KI nicht immer politisch neutral antwortet, entscheiden im Alltag ganz andere Faktoren darüber, ob politische Gespräche eskalieren oder gelingen. Forschende der Universität Basel haben herausgefunden, dass weniger das Thema als der Denkstil über Offenheit oder Abbruch entscheidet. Mehr dazu in unserem Artikel.
Bild: © Unsplash
