idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
07/10/2025 11:48

Wenn Maschinen Vorurteile lernen: Wie gefährlich ist Gender Bias in der Künstlichen Intelligenz?

Nils Fabisch Presse- und Öffentlichkeitsarbeit
SRH Fernhochschule

    Künstliche Intelligenz (KI) wird heute schon vielfach bei der Entscheidungsfindung benutzt. Doch was passiert, wenn die Datengrundlage, auf der diese Entscheidungen beruhen, verzerrt ist? Eine geschlechtsspezifische Voreingenommenheit, die technische und gesellschaftliche Folgen haben kann, meint Datenwissenschaftler Prof. Dr. Christian Prinz von der SRH Fernhochschule.

    Prof. Dr. Christian Prinz, Molekularmediziner, Professor für Data Science und Künstliche Intelligenz an der SRH Fernhochschule – The Mobile University lehrt und forscht rund um das Thema KI. Für ihn ist klar: KI ist nur so objektiv wie die Daten, mit denen sie trainiert wurde. Das Problem: Viele dieser Daten spiegeln gesellschaftliche Vorurteile wider. Besonders deutlich wird das in der Medizin. Studien zeigen, dass Frauen bei Brustschmerzen im Schnitt länger auf ein EKG warten als Männer. Ihre Symptome werden häufiger als psychisch eingestuft, insbesondere wenn sie von der vermeintlich männlichen Herzinfarktsymptomatik abweichen. Und das hat Auswirkungen auf die Ergebnisse, wenn man die KI mit diesen Studiendaten trainiert, um sie dann zur Unterstützung rund um eine Herzinfarktdiagnose einzusetzen.

    Die Daten lügen nicht. Oder doch?
    „Die vorhandenen Daten sind immer die Grundlage. Wenn sie Bias enthalten, dann produzieren sie Bias behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt Prinz. Überlässt man also der KI das Feld unkontrolliert, entsteht laut dem Wissenschaftler bei gesellschaftlich positiven Entwicklungen in der KI oft wieder ein Reset, weil deren Datengrundlage somit massiv überholt ist.

    In seiner Forschung beschäftigt sich Christian Prinz unter anderem mit geschlechtsspezifischen Unterschieden in medizinischen Daten und den Risiken algorithmischer Entscheidungen. Aus diesem Bereich liefert er ein konkretes Beispiel: Eine Frau klagt über Übelkeit, Rückenschmerzen und Erschöpfung: Symptome, die durchaus zu einem Herzinfarkt gehören, aber oft übersehen werden. „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ‚atypisch‘ gelten“, so Prinz.

    Wenn Algorithmen benachteiligen
    Nicht nur in der Medizin, auch in anderen Bereichen zeigt sich Gender Bias. Ein großer internationaler Onlinehändler stoppte ein Bewerbertool, weil es Frauen systematisch benachteiligte. Die KI bewertete Begriffe und Formulierungen aus alten Bewerbungen – mehrheitlich von Männern – als besonders positiv. Frauen mit ähnlichen Qualifikationen wurden schlechter eingestuft.

    Dabei ist Bias nicht nur ein Datenproblem, sondern auch eine Frage der Modellierung. „KI übernimmt nicht nur die Muster aus den Daten, sondern reproduziert auch die Denkweisen ihrer Entwickler“, sagt Prinz. Gerade bei generativer KI sei das besonders kritisch: „Wenn ChatGPT etwa beim Programmieren hilft, übernimmt es oft Codefragmente mit inhärenten Verzerrungen. Diese werden dann weitergetragen.“

    Präzise, aber falsch: Bias und Noise
    Vorhersagefehler lassen sich grob in zwei Kategorien einteilen: Bias (Verzerrung) und Noise (Zufälligkeit). „Ein gutes Bild liefert das Dartspiel: Wenn man zehnmal in die rechte obere Ecke trifft, ist man sehr präzise, aber nicht richtig. Das ist Bias. Wenn die Pfeile wild um das Zentrum streuen, ist das Noise“, erklärt Prinz.

    „Diversität in den Daten ist essenziell“
    Vollständig ausschließen lässt sich Bias wohl nie. Doch es gibt wirkungsvolle Maßnahmen, um ihn zu erkennen und zu reduzieren. Technisch helfen Fairnessmetriken, De-Bias-Methoden oder Explainability-Tools, die nachvollziehbar machen, wie eine KI zu ihren Entscheidungen kommt. Organisatorisch sind interdisziplinäre Teams, Audits und Ethikleitlinien notwendig. Und gesellschaftlich braucht es mehr Aufklärung und Verantwortung.

    „Ein wichtiger Faktor ist auch die Datenqualität“, betont Prinz. „Wenn wir KI mit verzerrten oder unausgewogenen Daten füttern, dürfen wir uns über diskriminierende Ergebnisse nicht wundern. Diversität in den Daten ist essenziell.“ Noch wichtiger ist aber laut dem Professor der SRH Fernhochschule, dass in den Daten das abgebildet sein muss, was vorhergesagt werden soll.

    Eine Frage der Gerechtigkeit
    Gender Bias in der Künstlichen Intelligenz ist kein Randphänomen. Er betrifft viele Lebensbereiche und kann reale Folgen haben: Etwa, wenn eine Frau wegen ihrer „atypischen“ Symptome nicht rechtzeitig behandelt wird. Oder wenn qualifizierte Bewerberinnen von einem Algorithmus aussortiert werden.
    „Doch die Technik ist nicht unser Feind“, sagt Prinz. Er ist sich sicher: KI kann helfen, Entscheidungen objektiver und besser zu machen, wenn sie richtig eingesetzt wird. Dazu gehört, bestehende Ungleichheiten zu erkennen und nicht unreflektiert in neue Systeme zu übernehmen. Nur so kann KI zu einem Werkzeug der Gerechtigkeit werden; und nicht zu einem Verstärker alter Vorurteile.

    Was ist Gender Bias in der Künstlichen Intelligenz?
    Gender Bias bezeichnet eine systematische Verzerrung in Daten oder Entscheidungen aufgrund des Geschlechts. In der Künstlichen Intelligenz entsteht dieser Bias oft, weil die Trainingsdaten gesellschaftliche Ungleichheiten widerspiegeln. Wenn etwa in medizinischen Datensätzen überwiegend Männer vertreten sind, erkennt eine KI typische weibliche Symptome schlechter. Auch Bewerbungs-KIs oder Sprachmodelle wie ChatGPT können Vorurteile übernehmen. Zum Beispiel indem sie Männer mit Führung, Frauen mit Pflege assoziieren.

    Bias kann sich in allen Phasen der KI-Entwicklung einschleichen:
    • Datenerhebung: Wenn bestimmte Gruppen unterrepräsentiert sind
    • Datenverarbeitung: Wenn fehlerhafte Annahmen getroffen werden
    • Modelltraining: Wenn Algorithmen bestehende Muster verstärken
    • Anwendung: Wenn Entscheidungen ohne menschliches Hinterfragen getroffen werden

    Ziel fairer KI-Entwicklung ist es, diese Verzerrungen zu erkennen, zu benennen und zu minimieren.

    Prof. Dr. Christian Prinz
    Christian Prinz ist Molekularmediziner und spezialisiert in MR-Neuroimmunpharmakologie und klinischen Datenwissenschaften. Nach Stationen in Erlangen, Parma, Berlin und Heidelberg als Wissenschaftler, später Projektmanager und Consultant in der medizinischen Softwareentwicklung lehrte Christian Prinz seit 2022 im Bereich Data Science & Analytics an der SRH Fernhochschule - The Mobile University als Fachdozent. Seit März 2025 hält er eine Professur für Data Science und Künstliche Intelligenz.


    More information:

    https://www.mobile-university.de/tw-digitalisierung/gender-bias-in-der-kuenstlic... Fachtext zu dieser Pressemitteilung


    Images

    Criteria of this press release:
    Journalists, Scientists and scholars, Students, Teachers and pupils, all interested persons
    Information technology, Medicine, Social studies
    transregional, national
    Miscellaneous scientific news/publications
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).