idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
07/12/2024 11:52

Gendergerechtigkeit: HSBI-Studie „Fit für KI?“ zeigt, wo KI diskriminiert und was dagegen getan werden kann

Dr. Lars Kruse Ressort Hochschulkommunikation
Hochschule Bielefeld

    KI-Anwendungen sind im Arbeits- und Privatleben inzwischen allgegenwärtig. Der unkritische oder ungefragte Einsatz von Künstlicher Intelligenz kann allerdings zur Verfestigung von systematischer genderbezogener Diskriminierung führen. In der „Denkfabrik Digitalisierte Arbeitswelt“ am Fachbereich Wirtschaft der Hochschule Bielefeld haben sich Wissenschaftler:innen darüber Gedanken gemacht, in welchen Feldern Gegenmaßnahmen eingeleitet werden können.

    Bielefeld (hsbi). Erhöht Künstliche Intelligenz (KI) die Chancengleichheit, wie etwa bei der Besetzung einer neuen Stelle? Beispiele aus der Praxis zeigen, dass das Gegenteil der Fall sein kann. So vertraute ein global agierender Online-Versandhandel im Recruiting-Prozess einem Einstellungsroboter – und sah sich prompt mit Diskriminierungsvorwürfen konfrontiert: Die KI hatte Lebensläufe von Frauen häufig aussortiert und bevorzugte offenbar männliche Kandidaten. Ein weiteres Beispiel: Der Betreiber eines der größten sozialen Netzwerke weltweit zeigte Männern auf seiner Plattform häufiger Stellenanzeigen von technischen Berufen als Frauen. Offensichtlich hatte die KI das zahlenmäßige Übergewicht von Männern in technischen Berufen zur Annahme verleitet, dass dies auch für die Zukunft so gewünscht sei.

    Negative Auswirkung auf Akzeptanz von KI

    Die Berichterstattung über die Ausgrenzung von Frauen durch KI macht Schlagzeilen und hat Auswirkungen auf die Akzeptanz und Einsetzbarkeit der Technologie. Vor diesem Hintergrund hat eine Gruppe von Forschenden an der Hochschule Bielefeld (HSBI) die Studie „Fit für KI? durchgeführt. Unter der Leitung von Prof. Dr. Sascha Armutat vom Fachbereich Wirtschaft untersuchten die wissenschaftlichen Mitarbeiter:innen Nina Mauritz, Malte Wattenberg, Lotte Prädikow und Maximilian Schulte genderrelevante Aspekte bei der Wahrnehmung und dem Verständnis von KI. Ziel der Arbeit war es festzustellen, in welchen Anwendungsbereichen von KI genderbezogene Diskriminierung wahrscheinlich ist sowie Weiterbildungs- und Gegenmaßnahmen zu eruieren.

    Die Studie fand in der „Denkfabrik Digitalisierte Arbeitswelt“ an der HSBI statt, die sich bereits seit 2016 mit den Auswirkungen der Digitalisierung und Industrie 4.0 auf die Arbeitswelt befasst. Im Mai 2023 wurden Fokusgruppen mit Studierenden aus höheren Semestern durchgeführt. Im Ergebnis identifizierten die HSBI-Forschenden dabei fünf Kategorien, die für die Teilnehmer:innen die spezifischen Bedürfnisse und Perspektiven abbilden, damit KI-Technologien künftig auf eine gerechtere und gleichberechtigtere Weise entwickelt und angewendet werden können und eine größere Akzeptanz erfahren: Neben der Kategorie „Freiheit von Diskriminierung“ sind demnach „Wissen und Bildung“ ebenso zu berücksichtigen wie „Geschlechterunterschiede (Sozialisierung und Stereotype)“, „Kommunikation und Benutzerfreundlichkeit“ sowie „Transparenz und Regelungen“.

    Unterrepräsentiertheit von Frauen führt zu mangelnder Leistungsfähigkeit von Systemen

    „In vielen Wirtschaftsbereichen, insbesondere in großen Technologieunternehmen, ist eine geschlechtsspezifische Voreingenommenheit von KI-Technologien zu beobachten, da hier vorwiegend Männer die Entwicklungsteams bilden“, so Armutat weiter. „Die Unterrepräsentiertheit von Frauen in den Daten, mit denen KI-Systeme lernen, wirkt sich unter anderem auf die Leistungsfähigkeit von Stimm-, Sprach- und Gesichtserkennungssystemen aus, die bei Männern häufig zuverlässiger funktionieren“, berichtet der Professor mit Blick unter anderem auf die Studie der Gesichtserkennungsforscherin Joy Buolamwini vom Massachusetts Institute of Technology (MIT).

    Systematische Verzerrungen, die durch unkritisch in KIs einfließende empirische Daten, geschlechtsbezogene Stereotypisierungen und Vorurteile entstehen, bezeichnet die Wissenschaft als „Gender Bias“. Darüber und über die aus solchen Erkenntnissen abzuleitenden Vorgaben für den transparenten Einsatz von KI und über Regelungen, die Diskriminierungen unterbinden, wurde in den Fokusgruppen am häufigsten diskutiert. Ihre Forderung lautet: Der Umgang mit KI müsse nachvollziehbarer und demokratischer gestaltet werden. Dazu könnte eine Kennzeichnungspflicht gehören, um anzuzeigen, wann jemand mit einer KI interagierte. Außerdem wurde der Wunsch nach Regelungen geäußert, in denen festgelegt wird, was KI darf und was nicht. Der EU AI Act, der KI-Anwendungen in unterschiedliche Risikoklassen einordnen soll, geht hier in die richtige Richtung.

    Stärkere Mitwirkung von Frauen bei der Entwicklung von KI notwendig

    Für Frauen ist Wissen der Schlüssel für mehr Interesse an KI und mehr Gendergerechtigkeit, so ein weiteres Ergebnis der im Rahmen der Studie ausgewerteten Gesprächsrunden. Allerdings stellen hier verschiedene Formen der Diskriminierung, geschlechterstereotype Vorurteile und fehlende Gleichstellung nach wie vor Hindernisse dar. Die Stereotype, dass sich Frauen und Mädchen angeblich nicht für Technik interessieren oder womöglich auf diesem Gebiet weniger begabt seien, kann dazu führen, dass Frauen Studiengänge und Berufe in technischen Bereichen gar nicht erst in Erwägung ziehen. Das macht die Gefahr latent, dass KI-Anwendungen auch in Zukunft dies als gegeben oder sogar wünschenswert hinnehmen und entsprechend agieren.

    „Unsere Studie zeigt, dass sich Frauen mehr konkrete Anwendungsbeispiele und insgesamt eine bessere Kommunikation über die Vor- und Nachteile von KI wünschen“, berichtet Armutat, nicht ohne den Hinweis, dass es vielen Männern ebenso geht. „Um den Gender Bias von KI zu überwinden, brauchen wir ein inklusives Bildungsumfeld, das die Sensibilisierung und Bildung für Frauen fördert. Wir müssen die Neugier und das Interesse von Frauen und Mädchen wecken“, skizziert der Wirtschaftswissenschaftler die praktischen Implikationen der Forschungsergebnisse. Flankierend braucht es Maßnahmen gegen diskriminierende Barrieren und Stereotype – in den Schulen und am Arbeitsplatz. Zudem sollten Frauen frühzeitig in die Entwicklung von KI-Anwendungen einbezogen und klare Regeln geschaffen werden, um die Gleichberechtigung am Arbeitsplatz sicherzustellen.

    Bildungseinrichtungen und Unternehmen kommt Schlüsselrolle zu

    „Schulen müssen das Thema KI explizit auf ihren Lehrplan nehmen, vor allem aber müssen Lehrerinnen und Lehrer dafür sensibilisiert werden, dass sich ihre Geschlechterstereotypen folgenreich auf den Zugang von Schülerinnen zu Schlüsseltechnologien der Zukunft auswirken“, betont Prof. Dr. Armutat.

    Interessant sind die Ergebnisse vor allem für Unternehmen, in denen immer häufiger KI-Systeme zum Einsatz kommen: „Bei der Implementierung dieser Systeme muss berücksichtigt werden, dass Mitarbeiterinnen einen anderen Zugang zur Thematik haben können als die Mitarbeiter“, gibt Armutat zu bedenken. Daraus folgt unter anderem, dass es geschlechterparitätisch besetzte Projektgruppen zur Einführung von KI geben sollte und dass eine substanzielle, gendersensible inhaltliche Aufklärung betrieben werden muss.


    More information:

    https://www.hsbi.de/presse/pressemitteilungen/gendergerechtigkeit-hsbi-studie-fi... Pressemitteilung auf www.hsbi.de


    Images

    Ziel der HSBI-Studie "Fit für KI" war es festzustellen, in welchen Anwendungsbereichen von KI genderbezogene Diskriminierung wahrscheinlich ist sowie Weiterbildungs- und Gegenmaßnahmen zu eruieren
    Ziel der HSBI-Studie "Fit für KI" war es festzustellen, in welchen Anwendungsbereichen von KI gender ...

    P. Pollmeier/HSBI

    Die Wissenschaftler:innen Malte Wattenberg, Nina Mauritz und Prof. Dr. Sascha Armutat (v.l.n.r.) von der HSBI haben in der Studie „Fit für KI?“ genderrelevante Aspekte bei der Wahrnehmung und dem Verständnis von KI untersucht.
    Die Wissenschaftler:innen Malte Wattenberg, Nina Mauritz und Prof. Dr. Sascha Armutat (v.l.n.r.) von ...

    P. Pollmeier/HSBI


    Criteria of this press release:
    Journalists
    Economics / business administration, Information technology, Social studies
    transregional, national
    Research results
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).