idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
09.10.2025 12:24

Wie KI Ostdeutsche diskriminiert

Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München

    KI-Sprachmodelle wie ChatGPT haben Vorurteile gegenüber Ostdeutschen. Eine Studie der Hochschule München zeigt, dass Large Language Models strukturelle Muster der Beurteilung übernehmen und Vorurteile reproduzieren.

    KI-Sprachmodelle sind nicht neutral. Denn sogenannte „Large Language Models“ wie ChatGPT arbeiten mit Datenmengen, aus denen sie lernen, Muster erkennen und diese übernehmen. HM-Professorin Anna Kruspe und ihre wissenschaftliche Mitarbeiterin Mila Stillman von der Fakultät für Informatik und Mathematik der Hochschule München (HM) haben untersucht, wie KI mit Vorurteilen zu Ostdeutschland umgeht.

    Warum Ostdeutschland im Fokus steht

    Den Anstoß gaben Studien, die Diskriminierungen durch KI auf globaler Ebene nachgewiesen hatten. „Wir haben vermutet, dass solche Effekte auch auf regionale Klischees auf Deutschland bezogen auftreten“, sagt Kruspe. Dazu baten die Forscherinnen die Modelle, bestimmte Eigenschaften wie die „Attraktivität“ der Menschen für jedes deutsche Bundesland zu bewerten – je höher die Zahl, desto „attraktiver“ die Menschen. Getestet wurde dies mit ChatGPT und LeoLM, ein auf die deutsche Sprache spezialisiertes Sprachmodell, und einer Reihe an positiv sowie negativ zugeschriebenen Eigenschaften, z. B. Sympathie, Arroganz oder Fremdenfeindlichkeit. Auch neutrale Merkmale wie die Körpertemperatur wurden abgefragt.

    Ostdeutschland schneidet im Schnitt stets „niedriger“ ab

    Ostdeutsche Bundesländer erhielten demnach in allen Kategorien niedrigere Werte, unabhängig davon, ob es um positive, negative oder neutrale Zuschreibungen ging. Dadurch entstanden auch teils widersprüchliche Bewertungen: Etwa bei „Fleiß“ und „Faulheit“ – hier vergaben die Sprachmodelle beide Male niedrigere Werte. Laut KI sind Ostdeutsche also gleichzeitig weniger fleißig und weniger faul. Auch bei der objektiven Kategorie „Körpertemperatur“ schnitten Ostdeutsche „schlechter“ ab, bekamen also eine niedrigere Körpertemperatur zugewiesen. „Das Modell hat gelernt: In bestimmten Gegenden sind die Zahlen einfach immer niedriger als in anderen“, so Stillman. Die KI wiederhole somit stur ein einmal gelerntes Muster.

    Reale Nachteile wegen reproduzierter Vorurteile

    Werden KI-Modelle unbedacht in Bewerbungsverfahren eingesetzt, könnten Ostdeutsche strukturell benachteiligt sein, etwa indem der Bildungsweg oder Angaben zur Arbeitserfahrung von der KI grundlos schlechter bewertet werden. „Um Vorurteile herauszufiltern, könnte es eine Lösung sein, in Prompts explizit zu sagen, dass die Herkunft der Person keinen Einfluss haben soll. Verlässlich ist das aber leider nicht“, sagt Kruspe.


    Wissenschaftliche Ansprechpartner:

    Prof. Dr. Anna Kruspe
    E-Mail: anna.kruspe@hm.edu


    Originalpublikation:

    Kruspe, Anna & Stillman, Mila. (2024). Saxony-Anhalt is the Worst: Bias Towards German Federal States in Large Language Models. In: German Conference on Artificial Intelligence, Springer Nature Switzerland
    doi.org/10.1007/978-3-031-70893-0_12


    Bilder

    Für die Studie sollten KI-Sprachmodelle Merkmale wie „Fleiß“ oder „Fremdenfeindlichkeit“ in deutschen Bundesländern bewerten
    Für die Studie sollten KI-Sprachmodelle Merkmale wie „Fleiß“ oder „Fremdenfeindlichkeit“ in deutsche ...

    Copyright: Foto: Julia Bergmeister

    HM-Professorin Anna Kruspe (l.) und die wissenschaftliche Mitarbeiterin Mila Stillman forschen zu Sprachmodellen wie ChatGPT
    HM-Professorin Anna Kruspe (l.) und die wissenschaftliche Mitarbeiterin Mila Stillman forschen zu Sp ...

    Copyright: Foto: Julia Bergmeister


    Merkmale dieser Pressemitteilung:
    Journalisten
    Gesellschaft, Informationstechnik
    überregional
    Forschungsergebnisse, Wissenschaftliche Publikationen
    Deutsch


     

    Für die Studie sollten KI-Sprachmodelle Merkmale wie „Fleiß“ oder „Fremdenfeindlichkeit“ in deutschen Bundesländern bewerten


    Zum Download

    x

    HM-Professorin Anna Kruspe (l.) und die wissenschaftliche Mitarbeiterin Mila Stillman forschen zu Sprachmodellen wie ChatGPT


    Zum Download

    x

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).