idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
01/15/2021 11:54

Haben Künstliche Intelligenzen Vorurteile?

Nina Reckendorf Stabsstelle Presse und Kommunikation
Universität Paderborn

    Wissenschaftler der Universität Paderborn untersuchen algorithmische Voreingenommenheit

    Wenn Menschen argumentieren, kommen nicht selten bewusste oder unbewusste Vorurteile gegenüber Geschlechtern, Ethnizitäten oder anderen Personengruppen zum Tragen. Man spricht vom sogenannten sozialen Bias. Algorithmen, die Sprachdaten im Kontext Künstlicher Intelligenz verarbeiten, können diesen Bias übernehmen und sogar verstärken. Das haben Wissenschaftler der Universität Paderborn empirisch belegt. In einer Studie haben sie untersucht, welche Arten von Voreingenommenheit in argumentativen Datensätzen enthalten sind. Die Forschung findet im Rahmen des Projekts „Bias von KI-Modellen bei der Informationsbildung" statt, das vom Land NRW seit März 2020 an den Universitäten Paderborn und Bielefeld gefördert wird.

    „Anerkannte, wissenschaftlich fundierte Bias-Maße zeigen, dass insbesondere junge männliche Personen mit europäischen Namen häufig positiver dargestellt werden als etwa Menschen mit afroamerikanischen Namen. Das geht aus unseren Daten hervor und ist auf bestimmte Vorurteile zurückzuführen“, erklärt Jun.-Prof. Dr. Henning Wachsmuth vom Paderborner Institut für Informatik. Sein Doktorand Maximilian Spliethöver und er haben für die Studie „Argument from Old Man’s View: Assessing Social Bias in Argumentation" den Best Paper Award des siebten internationalen Workshops zum Thema „Argument Mining“ erhalten, u. a. unterstützt von IBM.

    Die Wissenschaftler haben Daten aus Online-Portalen wie Debattier- und Diskussionsforen untersucht. Wachsmuth zufolge legen die Auswertungen u. a. nahe, dass Männer z. B. eher positiv im beruflichen Kontext hervorgehoben werden, während Frauen häufiger in Kombination mit Begriffen aus dem häuslichen Umfeld in Erscheinung treten.

    Die Ergebnisse sollen den Grundstein für einen besseren algorithmischen Umgang mit Vorurteilen in argumentativen Kontexten legen. Dazu Wachsmuth: „Unser Projekt ist dadurch motiviert, dass KI-Modelle Datenkorrelationen anstelle tatsächlicher Kausalitäten widerspiegeln. Auch dann, wenn es sich um einen nicht zu rechtfertigenden, nur historisch bedingten Zusammenhang handelt. Beispiele sind eine Vorhersage der Rückfallwahrscheinlichkeit Krimineller auf Basis ihres ethnischen Hintergrunds oder die Empfehlung zur Einstellung einer Person aufgrund ihres Geschlechts. Da KI verstärkt alle Bereiche der Gesellschaft, Wirtschaft und Wissenschaft durchdringt, kann Bias in KI-Modellen unsere Gesellschaft nachhaltig verändern.“

    Die Wissenschaftler der beiden Universitäten untersuchen deshalb, wie solche Vorurteile in zugrundeliegenden Daten das Lernen und die Konfiguration von KI-Modellen beeinflussen. Ein Fokus der Paderborner Forschung liegt auf Bias in menschlicher Sprache und dessen Auswirkungen auf die Meinungsbildung, zum Beispiel in sozialen Medien. Ziel ist es dabei nicht nur, das Phänomen zu erkennen, sondern auch die Auswirkungen auf KI-Modelle zu minimieren, insbesondere auf diejenigen zur automatischen Sprachverarbeitung.

    Weitere Informationen: http://argmining2020.i3s.unice.fr


    Contact for scientific information:

    Jun.-Prof. Dr. Henning Wachsmuth, Institut für Informatik, E-Mail: henningw@upb.de, Tel.: 05251 60-6844


    Images

    Criteria of this press release:
    Journalists, Scientists and scholars
    Information technology, Social studies
    transregional, national
    Research projects, Research results
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).