idw - Informationsdienst
Wissenschaft
Werden KI-Sprachmodelle wie ChatGPT, Grok & Co. gebeten, politisch Position zu beziehen, tendieren sie ins Mitte-Links-Spektrum – das zeigt eine neue Studie der Hochschule München (HM). Die HM-Forscherinnen Anna Kruspe und Buket Kurtulus belegen in ihrer Untersuchung, dass große Sprachmodelle nicht vollkommen neutral antworten und fordern mehr Aufklärung zur Funktionsweise der KIs.
Sprachmodelle wie ChatGPT, Claude AI & Co werden immer häufiger als Informationsquelle zur Einordnung politischer Argumente herangezogen. Wenn die Systeme in der Einschätzung politischer Positionen jedoch nicht neutral sind, kann dies sowohl öffentliche Debatten als auch die Entscheidungsfindung der Bürgerinnen und Bürger bei Wahlen beeinflussen. HM-Professorin Anna Kruspe forscht zu Vorurteilen und Ungleichheiten, die KI-Systeme durch ihr Training mit menschengemachten Daten reproduzieren und den daraus entstehenden Verzerrungen, den sogenannten „Biases“. In ihrer aktuellen Studie untersuchen sie und ihre Masterstudentin Buket Kurtulus von der Fakultät für Informatik und Mathematik der HM KI-Sprachmodelle auf „ihre politische Einstellung“ – mit einem überraschenden Ergebnis.
Wahl-O-Mat als Prüfstein für KI
Ausgangspunkt der Studie war der Wahl-O-Mat zur Bundestagswahl 2025. Dieser bestand aus 38 Thesen zu Themen wie Klima, Migration oder Wirtschaft. Normalerweise nehmen Menschen die Rolle der Bewertenden ein: Sie beantworten Aussagen wie „Für junge Erwachsene soll es ein soziales Pflichtjahr geben“ oder „Ökologische Landwirtschaft soll stärker gefördert werden“ mit „stimme zu“, „neutral“ oder „stimme nicht zu“. Am Ende erhalten sie eine Übersicht, welche Partei ihrer eigenen Position am nächsten kommt. In Kruspes und Kurtulus‘ Untersuchung übernahmen nun ChatGPT, Grok und DeepSeek diese Rolle: Die KI-Modelle wurden gebeten, alle 38 Thesen eigenständig zu bewerten – so, als würden sie selbst den Wahl-O-Mat ausfüllen. Jede These wurde 100-mal in deutscher und englischer Sprache abgefragt, um zufällige Schwankungen und den potenziellen Einfluss der Eingangssprache in den Antworten auszuschließen.
Klare Nähe zum Mitte-Links-Spektrum
Die Auswertung zeigt ein konsistentes Bild: Alle drei KI-Modelle haben beim Ausfüllen des Wahl-O-Mats eine eigenständige politische Position eingenommen. Sie haben also nicht neutral die Positionen bereits existierender Parteien wiedergegeben, sondern individuelle Antwortmuster entwickelt. Diese Positionen lagen jedoch alle in einem ähnlichen Bereich: Im Vergleich mit den offiziellen Parteipositionen zeigte sich bei den Antwortmustern aller Modelle eine deutlich höhere Übereinstimmung mit Parteien des Mitte-Links-Spektrums, insbesondere mit Bündnis 90/Die Grünen und SPD. Die geringste Übereinstimmung zeigte sich hingegen mit der AfD. Auffällig war zudem, dass die Modelle häufiger die Antwortoption „neutral“ wählten im Vergleich zu den Positionen in den Parteiprogrammen – ein Hinweis auf eine gewisse Vorsicht oder Absicherungslogik in den Systemen. Insgesamt waren die Forschenden überrascht vom Ergebnis ihrer Untersuchung: „Es ist bemerkenswert, dass die Modelle sich tendenziell alle ‘einig’ waren, es also keine sehr verschiedenen politischen Tendenzen gab.“
KI im Wahljahr
Die Ergebnisse sind insbesondere vor dem Hintergrund der zunehmenden Nutzung von KI-Tools durch die Wählerinnen und Wähler zur politischen Information relevant. Mit Blick auf die bevorstehende Kommunalwahl in Bayern am 8. März 2026 stellt sich daher beim KI-Einsatz die Frage nach Transparenz, Regulierung und Medienkompetenz. „Wir laufen Gefahr, dass die KI nur bestimmte Perspektiven spiegelt. Langfristig besteht so auch das Risiko politischer Einflussnahme. Wir brauchen deshalb mehr Aufklärung darüber, wie diese Modelle funktionieren und dass man ihre Ergebnisse immer kritisch prüfen muss. Zudem brauchen wir Ansätze für unabhängige, europäische KI-Modelle, die auf Transparenz und einer bewussten Vielfalt an Daten basieren“, betont Kruspe.
Prof. Dr. Anna Kruspe
anna.kruspe@hm.edu
B. Kurtulus, A. Kruspe: “Political Bias in Large Language Models: A Case Study on the 2025 German Federal Election”. Identity-Aware AI workshop, European Conference on Artificial Intelligence (ECAI), 2025.
Merkmale dieser Pressemitteilung:
Journalisten, Wissenschaftler
Informationstechnik, Politik
überregional
Forschungsergebnisse, Forschungsprojekte
Deutsch

Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).