Bei KI-gestützten Entscheidungen wird nicht der Einsatz von Algorithmen selbst als kritisch angesehen, sondern die fehlende menschliche Kontrolle. Das ist das Ergebnis einer neuen Studie um die Datenwissenschaftler Professor Florian Keusch und Professorin Frauke Kreuter.
Als Ende 2020 die österreichische Arbeitsmarktagentur AMS einen Algorithmus einsetzte, um die Art der Job- und Weiterbildungsangebote an die individuellen Profile von Arbeitssuchenden anzupassen, war die öffentliche Aufregung in Österreich groß. Viele kritisierten das Vorgehen, weil es auf historischen Daten basierte und damit potenziell Menschen benachteilige, die schon in der Vergangenheit am Jobmarkt diskriminiert wurden: Frauen erhielten beispielsweise per se einen Punktabzug, Mütter mussten einen weiteren Punktabzug hinnehmen. Dies hätte wiederum ihre Chancen verringern können, an Wiedereingliederungsmaßnahmen teilzunehmen.
Aber nicht nur auf dem Arbeitsmarkt, auch im Banken- und Personalwesen oder in der Medizin ist der Einsatz von Algorithmen verbreitet – und wird kontrovers diskutiert. Wie es um die Akzeptanz von Algorithmus-basierten Entscheidungen steht, hat der Mannheimer Datenwissenschaftler Prof. Dr. Florian Keusch in Zusammenarbeit mit Prof. Dr. Frauke Kreuter von der Ludwig-Maximilians-Universität München untersucht. Ihre Studie belegt, dass Entscheidungen, an denen Menschen beteiligt sind, als fairer beurteilt werden als solche, die ein Algorithmus allein trifft.
„Die Ergebnisse lassen darauf schließen, dass die Nutzung von Algorithmen ohne zusätzliche Kontrolle durch den Menschen als besonders problematisch angesehen wird“, konstatiert Keusch. „Es ist also nicht der Einsatz von Algorithmen an sich, der umstritten ist“, so der Mannheimer Professor weiter.
Die Forschenden haben für ihre Studie im Rahmen des German Internet Panels (GIP) mehr als 4.000 Menschen online befragt. Diese mussten Fragen beantworten, wie fair und akzeptabel sie die Nutzung von KI-gestützten Entscheidungen in vier unterschiedlichen Szenarien beurteilen: bei der Vergabe eines Finanzprodukts, bei Job-Bewerbungen, bei Gefängnisstrafen und bei Maßnahmen für Arbeitssuchende.
In allen vier Bereichen ist der Einsatz von KI schon heute zumindest in Teilen Realität. Das so genannte automated decision making (ADM) wird von Unternehmen und staatlichen Einrichtungen genutzt, um vor allem die Effizienz von Entscheidungsprozessen zu erhöhen und den Einfluss persönlicher Einstellungen der Entscheider zu reduzieren. Dabei wird oftmals die Aufgabe zwischen Mensch und Maschine geteilt: Bewerben sich beispielsweise Hunderte von Kandidatinnen und Kandidaten auf einen Job, sortiert ein Computerprogramm auf Basis von historischen Daten die Auswahl schon einmal vor und die oder der Zuständige trifft dann die endgültige Entscheidung. Dass eine Maschine allein eine Entscheidung trifft, ist noch eine Seltenheit. Aber es sei durchaus denkbar, dass bestimmte Prozesse künftig komplett automatisiert würden, sagen die Studienautoren.
Wo es um Akzeptanz geht, ist meist auch Transparenz ein großes Thema. Viele Algorithmen ähneln einer Blackbox – selbst für diejenigen, die sie verwenden. Der Grund: Sie werden teilweise extern eingekauft, so dass Entscheidende selbst gar nicht wissen, wie der Algorithmus zu seinem Ergebnis kommt. „Aus wissenschaftlicher und gesellschaftlicher Sicht ist es natürlich wünschenswert zu wissen, wie der Algorithmus einzelne Kriterien gewichtet“, so Keusch. Auch das sei eine wichtige Voraussetzung für dessen gesellschaftliche Akzeptanz.
Prof. Dr. Florian Keusch
Lehrstuhl für Statistik und sozialwissenschaftliche Methodenlehre
Universität Mannheim
Tel: +49 621 181-3214
E-Mail: f.keusch@uni-mannheim.de
Prof. Dr. Frauke Kreuter
Lehrstuhl für Statistik und Data Science
Institut für Statistik
Ludwig-Maximilians-Universität München
Tel: +49 89 2180 2814
E-Mail: frauke.kreuter@stat.uni-muenchen.de
http://www.gesellschaft-im-wandel.de/ergebnisse Link zum Ergebnisbericht der Studie
Criteria of this press release:
Journalists
Information technology, Politics, Social studies
transregional, national
Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).