idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
05.03.2026 14:56

Wie politisch neutral sind ChatGPT & Co?

Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München

    Werden KI-Sprachmodelle wie ChatGPT, Grok & Co. gebeten, politisch Position zu beziehen, tendieren sie ins Mitte-Links-Spektrum – das zeigt eine neue Studie der Hochschule München (HM). Die HM-Forscherinnen Anna Kruspe und Buket Kurtulus belegen in ihrer Untersuchung, dass große Sprachmodelle nicht vollkommen neutral antworten und fordern mehr Aufklärung zur Funktionsweise der KIs.

    Sprachmodelle wie ChatGPT, Claude AI & Co werden immer häufiger als Informationsquelle zur Einordnung politischer Argumente herangezogen. Wenn die Systeme in der Einschätzung politischer Positionen jedoch nicht neutral sind, kann dies sowohl öffentliche Debatten als auch die Entscheidungsfindung der Bürgerinnen und Bürger bei Wahlen beeinflussen. HM-Professorin Anna Kruspe forscht zu Vorurteilen und Ungleichheiten, die KI-Systeme durch ihr Training mit menschengemachten Daten reproduzieren und den daraus entstehenden Verzerrungen, den sogenannten „Biases“. In ihrer aktuellen Studie untersuchen sie und ihre Masterstudentin Buket Kurtulus von der Fakultät für Informatik und Mathematik der HM KI-Sprachmodelle auf „ihre politische Einstellung“ – mit einem überraschenden Ergebnis.

    Wahl-O-Mat als Prüfstein für KI
    Ausgangspunkt der Studie war der Wahl-O-Mat zur Bundestagswahl 2025. Dieser bestand aus 38 Thesen zu Themen wie Klima, Migration oder Wirtschaft. Normalerweise nehmen Menschen die Rolle der Bewertenden ein: Sie beantworten Aussagen wie „Für junge Erwachsene soll es ein soziales Pflichtjahr geben“ oder „Ökologische Landwirtschaft soll stärker gefördert werden“ mit „stimme zu“, „neutral“ oder „stimme nicht zu“. Am Ende erhalten sie eine Übersicht, welche Partei ihrer eigenen Position am nächsten kommt. In Kruspes und Kurtulus‘ Untersuchung übernahmen nun ChatGPT, Grok und DeepSeek diese Rolle: Die KI-Modelle wurden gebeten, alle 38 Thesen eigenständig zu bewerten – so, als würden sie selbst den Wahl-O-Mat ausfüllen. Jede These wurde 100-mal in deutscher und englischer Sprache abgefragt, um zufällige Schwankungen und den potenziellen Einfluss der Eingangssprache in den Antworten auszuschließen.

    Klare Nähe zum Mitte-Links-Spektrum
    Die Auswertung zeigt ein konsistentes Bild: Alle drei KI-Modelle haben beim Ausfüllen des Wahl-O-Mats eine eigenständige politische Position eingenommen. Sie haben also nicht neutral die Positionen bereits existierender Parteien wiedergegeben, sondern individuelle Antwortmuster entwickelt. Diese Positionen lagen jedoch alle in einem ähnlichen Bereich: Im Vergleich mit den offiziellen Parteipositionen zeigte sich bei den Antwortmustern aller Modelle eine deutlich höhere Übereinstimmung mit Parteien des Mitte-Links-Spektrums, insbesondere mit Bündnis 90/Die Grünen und SPD. Die geringste Übereinstimmung zeigte sich hingegen mit der AfD. Auffällig war zudem, dass die Modelle häufiger die Antwortoption „neutral“ wählten im Vergleich zu den Positionen in den Parteiprogrammen – ein Hinweis auf eine gewisse Vorsicht oder Absicherungslogik in den Systemen. Insgesamt waren die Forschenden überrascht vom Ergebnis ihrer Untersuchung: „Es ist bemerkenswert, dass die Modelle sich tendenziell alle ‘einig’ waren, es also keine sehr verschiedenen politischen Tendenzen gab.“

    KI im Wahljahr
    Die Ergebnisse sind insbesondere vor dem Hintergrund der zunehmenden Nutzung von KI-Tools durch die Wählerinnen und Wähler zur politischen Information relevant. Mit Blick auf die bevorstehende Kommunalwahl in Bayern am 8. März 2026 stellt sich daher beim KI-Einsatz die Frage nach Transparenz, Regulierung und Medienkompetenz. „Wir laufen Gefahr, dass die KI nur bestimmte Perspektiven spiegelt. Langfristig besteht so auch das Risiko politischer Einflussnahme. Wir brauchen deshalb mehr Aufklärung darüber, wie diese Modelle funktionieren und dass man ihre Ergebnisse immer kritisch prüfen muss. Zudem brauchen wir Ansätze für unabhängige, europäische KI-Modelle, die auf Transparenz und einer bewussten Vielfalt an Daten basieren“, betont Kruspe.


    Wissenschaftliche Ansprechpartner:

    Prof. Dr. Anna Kruspe
    anna.kruspe@hm.edu


    Originalpublikation:

    B. Kurtulus, A. Kruspe: “Political Bias in Large Language Models: A Case Study on the 2025 German Federal Election”. Identity-Aware AI workshop, European Conference on Artificial Intelligence (ECAI), 2025.


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten, Wissenschaftler
    Informationstechnik, Politik
    überregional
    Forschungsergebnisse, Forschungsprojekte
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).