idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
18.11.2025 10:04

Menschen übertragen geschlechtsspezifische Vorurteile auf Künstliche Intelligenz

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

    Eine Studie zeigt: Menschen projizieren Rollenbilder auf KI – und behandeln „weibliche“ und „männliche“ Systeme unterschiedlich.

    Laut einer neuen Studie von Forschenden der LMU und des Trinity College Dublin bringen Menschen geschlechtsspezifische Vorurteile in ihre Interaktionen mit Künstlicher Intelligenz (KI) ein. Die kürzlich in der Fachzeitschrift iScience veröffentlichten Ergebnisse sind von erheblicher Relevanz für die Gestaltung, Nutzung und Regulierung interaktiver KI-Systeme.

    Die Studie mit über 400 Teilnehmerinnen und Teilnehmern ergab, dass Menschen weiblich gekennzeichnete KI in vergleichbarem Maße ausnutzen wie menschliche Frauen und männlich gekennzeichneter KI in ähnlichem Ausmaß misstrauen wie menschlichen Männern. Insbesondere im Fall von weiblich gekennzeichneter KI stellte die Studie fest, dass Ausbeutung im Mensch-KI-Kontext sogar noch häufiger vorkam als bei der Interaktion mit menschlichen Gesprächspartnerinnen.

    Die Studie ist die erste, die die Rolle des Geschlechts von Maschinen in der Zusammenarbeit zwischen Mensch und KI mit einem systematischen empirischen Ansatz untersucht hat.

    Dazu spielten die Teilnehmenden wiederholt Runden des „Gefangenendilemmas“ – eines klassischen Experiments der Spieltheorie und Verhaltensökonomik, bei dem sich die Spielenden entscheiden müssen, ob sie sich kooperativ verhalten oder die andere Person ausnutzen. Um zu untersuchen, ob Vertrauen und Kooperationsbereitschaft auch im Kontext Künstlicher Intelligenz vom Geschlecht beeinflusst wird, wurden die Spielpartner jeweils als Mensch oder KI und zusätzlich als männlich, weiblich, nicht-binär oder geschlechtsneutral bezeichnet.

    KI-Entwicklung ohne Vorurteile?

    Die Ergebnisse zeigen, dass sich geschlechtsspezifische Erwartungen aus Mensch-Mensch-Kontexten auch auf die Zusammenarbeit zwischen Mensch und KI übertragen. Dies hat laut den Forschenden erhebliche Auswirkungen darauf, wie Organisationen interaktive KI-Systeme entwerfen, einsetzen und regulieren sollten.

    „Diese Studie weist auf ein wichtiges Dilemma hin“, sagt Dr. Jurgis Karpus, Mitautor der Studie und Postdoktorand am Lehrstuhl für Philosophy of Mind der LMU. „KI-Agenten mit menschenähnlichen Eigenschaften auszustatten, kann die Zusammenarbeit zwischen Menschen und KI fördern, birgt jedoch auch die Gefahr, dass unerwünschte bestehende geschlechtsspezifische Vorurteile aus menschlichen Interaktionen auf Künstliche Intelligenz übertragen und verstärkt werden.“

    Da KI zunehmend Teil unseres Alltags werde, sei es wichtig, die Geschlechterdarstellung bei der Gestaltung von KI sorgfältig zu berücksichtigen, um beispielsweise das Engagement der Menschen zu maximieren und Vertrauen in ihre Interaktionen mit automatisierten Systemen aufzubauen, so die Forschenden. Entwicklerinnen und Entwickler interaktiver KI-Anwendungen sollten Vorurteile in menschlichen Interaktionen erkennen und abbauen, um eine Verstärkung schädlicher geschlechtsspezifischer Diskriminierung zu verhindern und vertrauenswürdige, faire und sozial verantwortliche KI-Systeme zu schaffen.


    Wissenschaftliche Ansprechpartner:

    Dr. Jurgis Karpus
    Lehrstuhl für Philosophy of Mind
    Ludwig-Maximilians-Universität München
    Jurgis.Karpus@lmu.de


    Originalpublikation:

    Sepideh Bazazi, Jurgis Karpus & Taha Yasseri: AI’s assigned gender affects human-AI cooperation. iScience 2025
    https://doi.org/10.17605/OSF.IO/DP5EC


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten
    Gesellschaft, Informationstechnik, Mathematik, Philosophie / Ethik, Psychologie
    überregional
    Forschungsergebnisse, Wissenschaftliche Publikationen
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).