Künstliche Intelligenz (KI) wird heute schon vielfach bei der Entscheidungsfindung benutzt. Doch was passiert, wenn die Datengrundlage, auf der diese Entscheidungen beruhen, verzerrt ist? Eine geschlechtsspezifische Voreingenommenheit, die technische und gesellschaftliche Folgen haben kann, meint Datenwissenschaftler Prof. Dr. Christian Prinz von der SRH Fernhochschule.
Prof. Dr. Christian Prinz, Molekularmediziner, Professor für Data Science und Künstliche Intelligenz an der SRH Fernhochschule – The Mobile University lehrt und forscht rund um das Thema KI. Für ihn ist klar: KI ist nur so objektiv wie die Daten, mit denen sie trainiert wurde. Das Problem: Viele dieser Daten spiegeln gesellschaftliche Vorurteile wider. Besonders deutlich wird das in der Medizin. Studien zeigen, dass Frauen bei Brustschmerzen im Schnitt länger auf ein EKG warten als Männer. Ihre Symptome werden häufiger als psychisch eingestuft, insbesondere wenn sie von der vermeintlich männlichen Herzinfarktsymptomatik abweichen. Und das hat Auswirkungen auf die Ergebnisse, wenn man die KI mit diesen Studiendaten trainiert, um sie dann zur Unterstützung rund um eine Herzinfarktdiagnose einzusetzen.
Die Daten lügen nicht. Oder doch?
„Die vorhandenen Daten sind immer die Grundlage. Wenn sie Bias enthalten, dann produzieren sie Bias behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt Prinz. Überlässt man also der KI das Feld unkontrolliert, entsteht laut dem Wissenschaftler bei gesellschaftlich positiven Entwicklungen in der KI oft wieder ein Reset, weil deren Datengrundlage somit massiv überholt ist.
In seiner Forschung beschäftigt sich Christian Prinz unter anderem mit geschlechtsspezifischen Unterschieden in medizinischen Daten und den Risiken algorithmischer Entscheidungen. Aus diesem Bereich liefert er ein konkretes Beispiel: Eine Frau klagt über Übelkeit, Rückenschmerzen und Erschöpfung: Symptome, die durchaus zu einem Herzinfarkt gehören, aber oft übersehen werden. „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ‚atypisch‘ gelten“, so Prinz.
Wenn Algorithmen benachteiligen
Nicht nur in der Medizin, auch in anderen Bereichen zeigt sich Gender Bias. Ein großer internationaler Onlinehändler stoppte ein Bewerbertool, weil es Frauen systematisch benachteiligte. Die KI bewertete Begriffe und Formulierungen aus alten Bewerbungen – mehrheitlich von Männern – als besonders positiv. Frauen mit ähnlichen Qualifikationen wurden schlechter eingestuft.
Dabei ist Bias nicht nur ein Datenproblem, sondern auch eine Frage der Modellierung. „KI übernimmt nicht nur die Muster aus den Daten, sondern reproduziert auch die Denkweisen ihrer Entwickler“, sagt Prinz. Gerade bei generativer KI sei das besonders kritisch: „Wenn ChatGPT etwa beim Programmieren hilft, übernimmt es oft Codefragmente mit inhärenten Verzerrungen. Diese werden dann weitergetragen.“
Präzise, aber falsch: Bias und Noise
Vorhersagefehler lassen sich grob in zwei Kategorien einteilen: Bias (Verzerrung) und Noise (Zufälligkeit). „Ein gutes Bild liefert das Dartspiel: Wenn man zehnmal in die rechte obere Ecke trifft, ist man sehr präzise, aber nicht richtig. Das ist Bias. Wenn die Pfeile wild um das Zentrum streuen, ist das Noise“, erklärt Prinz.
„Diversität in den Daten ist essenziell“
Vollständig ausschließen lässt sich Bias wohl nie. Doch es gibt wirkungsvolle Maßnahmen, um ihn zu erkennen und zu reduzieren. Technisch helfen Fairnessmetriken, De-Bias-Methoden oder Explainability-Tools, die nachvollziehbar machen, wie eine KI zu ihren Entscheidungen kommt. Organisatorisch sind interdisziplinäre Teams, Audits und Ethikleitlinien notwendig. Und gesellschaftlich braucht es mehr Aufklärung und Verantwortung.
„Ein wichtiger Faktor ist auch die Datenqualität“, betont Prinz. „Wenn wir KI mit verzerrten oder unausgewogenen Daten füttern, dürfen wir uns über diskriminierende Ergebnisse nicht wundern. Diversität in den Daten ist essenziell.“ Noch wichtiger ist aber laut dem Professor der SRH Fernhochschule, dass in den Daten das abgebildet sein muss, was vorhergesagt werden soll.
Eine Frage der Gerechtigkeit
Gender Bias in der Künstlichen Intelligenz ist kein Randphänomen. Er betrifft viele Lebensbereiche und kann reale Folgen haben: Etwa, wenn eine Frau wegen ihrer „atypischen“ Symptome nicht rechtzeitig behandelt wird. Oder wenn qualifizierte Bewerberinnen von einem Algorithmus aussortiert werden.
„Doch die Technik ist nicht unser Feind“, sagt Prinz. Er ist sich sicher: KI kann helfen, Entscheidungen objektiver und besser zu machen, wenn sie richtig eingesetzt wird. Dazu gehört, bestehende Ungleichheiten zu erkennen und nicht unreflektiert in neue Systeme zu übernehmen. Nur so kann KI zu einem Werkzeug der Gerechtigkeit werden; und nicht zu einem Verstärker alter Vorurteile.
Was ist Gender Bias in der Künstlichen Intelligenz?
Gender Bias bezeichnet eine systematische Verzerrung in Daten oder Entscheidungen aufgrund des Geschlechts. In der Künstlichen Intelligenz entsteht dieser Bias oft, weil die Trainingsdaten gesellschaftliche Ungleichheiten widerspiegeln. Wenn etwa in medizinischen Datensätzen überwiegend Männer vertreten sind, erkennt eine KI typische weibliche Symptome schlechter. Auch Bewerbungs-KIs oder Sprachmodelle wie ChatGPT können Vorurteile übernehmen. Zum Beispiel indem sie Männer mit Führung, Frauen mit Pflege assoziieren.
Bias kann sich in allen Phasen der KI-Entwicklung einschleichen:
• Datenerhebung: Wenn bestimmte Gruppen unterrepräsentiert sind
• Datenverarbeitung: Wenn fehlerhafte Annahmen getroffen werden
• Modelltraining: Wenn Algorithmen bestehende Muster verstärken
• Anwendung: Wenn Entscheidungen ohne menschliches Hinterfragen getroffen werden
Ziel fairer KI-Entwicklung ist es, diese Verzerrungen zu erkennen, zu benennen und zu minimieren.
Prof. Dr. Christian Prinz
Christian Prinz ist Molekularmediziner und spezialisiert in MR-Neuroimmunpharmakologie und klinischen Datenwissenschaften. Nach Stationen in Erlangen, Parma, Berlin und Heidelberg als Wissenschaftler, später Projektmanager und Consultant in der medizinischen Softwareentwicklung lehrte Christian Prinz seit 2022 im Bereich Data Science & Analytics an der SRH Fernhochschule - The Mobile University als Fachdozent. Seit März 2025 hält er eine Professur für Data Science und Künstliche Intelligenz.
https://www.mobile-university.de/tw-digitalisierung/gender-bias-in-der-kuenstlic... Fachtext zu dieser Pressemitteilung
Merkmale dieser Pressemitteilung:
Journalisten, Lehrer/Schüler, Studierende, Wissenschaftler, jedermann
Gesellschaft, Informationstechnik, Medizin
überregional
Buntes aus der Wissenschaft
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).