idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
15.01.2021 11:54

Haben Künstliche Intelligenzen Vorurteile?

Nina Reckendorf Stabsstelle Presse und Kommunikation
Universität Paderborn

    Wissenschaftler der Universität Paderborn untersuchen algorithmische Voreingenommenheit

    Wenn Menschen argumentieren, kommen nicht selten bewusste oder unbewusste Vorurteile gegenüber Geschlechtern, Ethnizitäten oder anderen Personengruppen zum Tragen. Man spricht vom sogenannten sozialen Bias. Algorithmen, die Sprachdaten im Kontext Künstlicher Intelligenz verarbeiten, können diesen Bias übernehmen und sogar verstärken. Das haben Wissenschaftler der Universität Paderborn empirisch belegt. In einer Studie haben sie untersucht, welche Arten von Voreingenommenheit in argumentativen Datensätzen enthalten sind. Die Forschung findet im Rahmen des Projekts „Bias von KI-Modellen bei der Informationsbildung" statt, das vom Land NRW seit März 2020 an den Universitäten Paderborn und Bielefeld gefördert wird.

    „Anerkannte, wissenschaftlich fundierte Bias-Maße zeigen, dass insbesondere junge männliche Personen mit europäischen Namen häufig positiver dargestellt werden als etwa Menschen mit afroamerikanischen Namen. Das geht aus unseren Daten hervor und ist auf bestimmte Vorurteile zurückzuführen“, erklärt Jun.-Prof. Dr. Henning Wachsmuth vom Paderborner Institut für Informatik. Sein Doktorand Maximilian Spliethöver und er haben für die Studie „Argument from Old Man’s View: Assessing Social Bias in Argumentation" den Best Paper Award des siebten internationalen Workshops zum Thema „Argument Mining“ erhalten, u. a. unterstützt von IBM.

    Die Wissenschaftler haben Daten aus Online-Portalen wie Debattier- und Diskussionsforen untersucht. Wachsmuth zufolge legen die Auswertungen u. a. nahe, dass Männer z. B. eher positiv im beruflichen Kontext hervorgehoben werden, während Frauen häufiger in Kombination mit Begriffen aus dem häuslichen Umfeld in Erscheinung treten.

    Die Ergebnisse sollen den Grundstein für einen besseren algorithmischen Umgang mit Vorurteilen in argumentativen Kontexten legen. Dazu Wachsmuth: „Unser Projekt ist dadurch motiviert, dass KI-Modelle Datenkorrelationen anstelle tatsächlicher Kausalitäten widerspiegeln. Auch dann, wenn es sich um einen nicht zu rechtfertigenden, nur historisch bedingten Zusammenhang handelt. Beispiele sind eine Vorhersage der Rückfallwahrscheinlichkeit Krimineller auf Basis ihres ethnischen Hintergrunds oder die Empfehlung zur Einstellung einer Person aufgrund ihres Geschlechts. Da KI verstärkt alle Bereiche der Gesellschaft, Wirtschaft und Wissenschaft durchdringt, kann Bias in KI-Modellen unsere Gesellschaft nachhaltig verändern.“

    Die Wissenschaftler der beiden Universitäten untersuchen deshalb, wie solche Vorurteile in zugrundeliegenden Daten das Lernen und die Konfiguration von KI-Modellen beeinflussen. Ein Fokus der Paderborner Forschung liegt auf Bias in menschlicher Sprache und dessen Auswirkungen auf die Meinungsbildung, zum Beispiel in sozialen Medien. Ziel ist es dabei nicht nur, das Phänomen zu erkennen, sondern auch die Auswirkungen auf KI-Modelle zu minimieren, insbesondere auf diejenigen zur automatischen Sprachverarbeitung.

    Weitere Informationen: http://argmining2020.i3s.unice.fr


    Wissenschaftliche Ansprechpartner:

    Jun.-Prof. Dr. Henning Wachsmuth, Institut für Informatik, E-Mail: henningw@upb.de, Tel.: 05251 60-6844


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten, Wissenschaftler
    Gesellschaft, Informationstechnik
    überregional
    Forschungsergebnisse, Forschungsprojekte
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).