idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
07/07/2025 11:58

Künstliche Intelligenz gibt Frauen schlechtere Gehaltsratschläge

Eva Kaupp Hochschulkommunikation
Technische Hochschule Würzburg-Schweinfurt

    THWS-Studie deckt Voreingenommenheit bei Sprachmodellen wie ChatGPT auf

    Eine aktuelle Studie der Technischen Hochschule Würzburg-Schweinfurt (THWS) zeigt: Moderne Sprachmodelle wie ChatGPT geben Frauen für Gehaltsverhandlungen systematisch niedrigere Empfehlungen als Männern – selbst wenn alle anderen Faktoren identisch sind.

    Prof. Dr. Ivan Yamshchikov, Leiter des Centers für Künstliche Intelligenz (CAIRO) an der THWS, führte die Studie gemeinsam mit Aleksandra Sorokovikova, Pavel Chizhov und Iuliia Eremenko durch. Sie untersuchten, wie Voreingenommenheit (Bias) in großen Sprachmodellen, sogenannten Large Language Models (LLMs) wie beispielsweise ChatGPT, zum Vorschein tritt. Im Rahmen der Untersuchung baten die Forschenden ein großes Sprachmodell, in mehreren identischen Szenarien Gehaltsberatung zu geben – einmal für eine Frau, einmal für einen Mann. Das Ergebnis: Die künstliche Intelligenz (KI) empfahl Frauen durchgängig einen niedrigeren Zielbetrag für die Gehaltsverhandlung als Männern. „Gerade bei sensiblen Themen wie Gehalt kann diese Form von verstecktem Bias reale Auswirkungen auf die Lebensrealität von Nutzerinnen haben“, sagt Prof. Dr. Yamshchikov.

    Realitätsnahe Tests zeigen Verzerrung

    Die Studie zeige, dass solche Verzerrungen in KI-Systemen nicht nur bei offensichtlichen Tests, sondern vor allem in realitätsnahen, interaktiven Szenarien auftreten. Während Standard-Benchmarks oft keine signifikanten Unterschiede zwischen verschiedenen Nutzerprofilen erkennen ließen, offenbarten sich tief verankerte Vorurteile, sobald die KI in beratender Funktion agiert – wie etwa bei der Bewertung von Nutzerantworten oder bei konkreten Ratschlägen zu Gehaltsverhandlungen, so Prof. Dr. Yamshchikov. Da moderne KI-Assistenten Erkenntnisse aus früheren Abfragen speichern, verstärke sich dadurch das Risiko, dass KI-Antworten von Vorurteilen geprägt seien – was für die Nutzer aber nicht leicht zu erkennen sei.

    Die Studie ist Teil der laufenden Arbeiten zur ethischen Nutzung von KI-Assistenten im Rahmen des europäischen Projekts AIOLIA. Ziel von AIOLIA ist es, ethische Leitlinien für den Einsatz von KI im Alltag zu entwickeln und praxisnah umzusetzen. Prof. Dr. Yamshchikovs Forschungsgruppe arbeitet im Rahmen von AIOLIA daran, KI-Assistenten transparenter und fairer zu gestalten – und damit einen Beitrag zu einer verantwortungsvollen Digitalisierung zu leisten. „Die Ergebnisse aus Würzburg unterstreichen, wie dringend solche Leitlinien benötigt werden, um Diskriminierung durch KI zu verhindern“, betont der CAIRO-Leiter.

    Insgesamt arbeiten Hochschulen und Institutionen aus 15 Ländern gemeinsam am von der EU geförderte Projekt AIOLIA. Die vollständige Studie des CAIRO-Teams gibt es online zu lesen.

    Über die THWS

    Die Technische Hochschule Würzburg-Schweinfurt (THWS) zählt zu den größten Hochschulen für angewandte Wissenschaften in Bayern und steht seit ihrer Gründung im Jahr 1971 für hervorragende Lehre und angewandte Forschung. Mit rund 9.000 Studierenden und einem breit gefächerten Angebot von mehr als 60 Studiengängen deckt die THWS ein weites Spektrum ab, das von Technik über Wirtschafts- und Sozialwissenschaften sowie Sprache bis hin zu Gestaltung reicht. Die THWS ist nicht nur regional in Franken und Bayern verwurzelt, sondern auch stark international ausgerichtet, was sich in zahlreichen Kooperationen und Austauschprogrammen weltweit und nicht zuletzt in einem vielseitigen englischsprachigen Studienangebot widerspiegelt.


    Contact for scientific information:

    Prof. Dr. Ivan Yamshchikov
    ivan.yamshchikov@thws.de


    Original publication:

    https://arxiv.org/abs/2506.10491


    More information:

    https://aiolia.eu/


    Images

    Ungleiche Bezahlung – der sogenannte Gender Pay Gap – zeigt sich laut einer Studie der Technischen Hochschule Würzburg-Schweinfurt (THWS) auch in den großen Sprachmodellen wie ChatGPT
    Ungleiche Bezahlung – der sogenannte Gender Pay Gap – zeigt sich laut einer Studie der Technischen H ...
    Source: Adobe Stock/angel_nt
    Copyright: Adobe Stock/angel_nt


    Criteria of this press release:
    Business and commerce, Journalists, Scientists and scholars, all interested persons
    Information technology
    transregional, national
    Research results, Transfer of Science or Research
    German


     

    Ungleiche Bezahlung – der sogenannte Gender Pay Gap – zeigt sich laut einer Studie der Technischen Hochschule Würzburg-Schweinfurt (THWS) auch in den großen Sprachmodellen wie ChatGPT


    For download

    x

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).