idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
05/14/2021 10:39

Studie: Ist der Computer bei der Diensplanung gerechter als ein menschlicher Vorgesetzter?

Thorsten Mohr Pressestelle der Universität des Saarlandes
Universität des Saarlandes

    Insbesondere unter Menschen, die im Schichtbetrieb arbeiten, kann es zu Streit kommen, wenn etwa Dienstpläne besprochen werden. Manche fühlen sich etwa benachteiligt, da sie – gefühlt – zu oft ungeliebte Schichten übernehmen sollen. Abhilfe könnten Computerprogramme bieten, die bei der Dienstplanung helfen. Doch führen diese Systeme tatsächlich zu mehr Akzeptanz? Das hat ein Team der Saar-Uni untersucht und die Ergebnisse in der Fachzeitschrift Computers in Human Behavior veröffentlicht.

    „Warum habe ich einen späteren Impftermin bekommen als meine Kollegin?“ „Warum bekommt mein Kollege mehr Geld als ich?“ „Ich soll schon wieder die Spätschicht machen, obwohl ich da meine Kinder betreuen muss?“ Bei all diesen Fragen schwingt ein Thema mit: Gerechtigkeit, vor allem die wahrgenommene beziehungsweise die „gefühlte“ Gerechtigkeit: Wer davon überzeugt ist, dass er benachteiligt wird, wird Entscheidungen nicht akzeptieren, sie hinterfragen, dagegen protestieren oder sogar rechtliche Schritte gegen solche als ungerecht empfundenen Entscheidungen einleiten. Gerechtigkeit ist daher auch ein wichtiger Faktor in der Dienstplanung. Eine gerechte Dienstplanung sollte alle Teammitglieder gleichermaßen berücksichtigen, frühzeitig feststehen, transparent kommuniziert werden und nach eindeutigen Entscheidungskriterien erfolgen.
    Insbesondere im Gesundheitswesen birgt die Dienstplanung jedoch häufig Konfliktpotenzial, da Planende eine Doppelrolle innehaben: Sie sind Ersteller und Empfänger des Dienstplans zugleich. Schon seit einigen Jahren wird daher über den Einsatz automatisierter Entscheidungen für die Dienstplanung geforscht. Automatisierte Dienstplanung, beispielsweise mithilfe Künstlicher Intelligenz, bietet hier durch hohe Verarbeitungsgeschwindigkeit sowie vermeintliche Objektivität die Chance, um die Dienstplanung fairer zu gestalten. Aber werden Entscheidungen durch automatisierte Systeme wirklich als gerechter wahrgenommen? Und welche Rolle spielt die Nachvollziehbarkeit dieser Entscheidungen dabei?

    Diese Fragen hat ein Team aus der Psychologie der Universität des Saarlandes in einer Studie untersucht. Hauptautorin ist die ehemalige Saarbrücker Psychologiestudentin Nadine Schlicker, die jetzt in Marburg am Institut für Künstliche Intelligenz in der Medizin arbeitet. Weitere Beteiligte sind Dr. Markus Langer und Professor Cornelius König (Arbeits- und Organisationspsychologie der Universität des Saarlandes), die Ergosign GmbH, die Universität Bielefeld und Kevin Baum (Computerethiker an der Saar-Uni). In ihrer Online-Studie haben sie medizinische Fachkräfte gebeten, sich in eine Situation zu versetzen, in der ihr Urlaubsantrag entweder von einem Mensch oder einem System abgelehnt wurde. Die Teilnehmenden erhielten für die Ablehnung des Antrages entweder keine Erklärung, eine, die auf dem Zufallsprinzip („Würfelglück") basierte oder eine, die mit dem Leistungsprinzip („mehr Überstunden“) argumentierte.

    „Die Ergebnisse zeigten dass, Entscheidungen von Menschen als respektvoller wahrgenommen werden“, erklärt Dr. Markus Langer. Auch die Mitsprache beziehungsweise die Möglichkeit, eigene Wünsche einzubringen, wurde als gerechter umgesetzt wahrgenommen, wenn ein Mensch die Entscheidung traf. Systeme hingegen wurden als objektiver und konsistenter wahrgenommen. Erklärungen führten, wenn eine Maschine die Entscheidung traf, zwar dazu, dass sich die Teilnehmenden besser informiert fühlten. „Bei genauerer Analyse zeigte sich jedoch, dass das Fehlen einer Erklärung für die Ablehnung des Urlaubsantrags nur dann zu einer ‚ungerechteren‘ Wahrnehmung führte, wenn ein Mensch die Entscheidung traf, nicht hingegen, wenn eine Entscheidung automatisiert getroffen wurde“, führt Markus Langer weiter aus.

    Mögliche Ursache für dieses Ergebnis könnte sein, dass eine Person, deren Urlaubsantrag von einem Menschen ohne Begründung abgelehnt wird, diesem möglicherweise Absicht unterstellt, einer Maschine hingegen nicht, da sie ja keine persönlichen Empfindungen hegt.

    „Diese Befunde haben wichtige Implikationen für das Design von unterstützenden Computersystemen“, so Nadine Schlicker über das Fazit der Studie. Die Ergebnisse deuten darauf hin, dass Menschen teilweise keine Erklärungen für die Entscheidungen eines Computersystems erwarten, vielleicht auch, weil die Annahme besteht, dass Maschinen bessere, objektivere Entscheidungen treffen. Das birgt andere Schwierigkeiten: „Die Gefahr hierbei besteht darin, dass Menschen automatische Entscheidungen weniger wahrscheinlich hinterfragen, als objektiv ansehen und so am Ende mögliche fehlerhafte Entscheidungen des Computers unentdeckt bleiben“, erklärt Nadine Schlicker. Blindes Vertrauen in die Entscheidungen einer Maschine wird also auch nicht der zukünftige Königsweg sein können, um eine gerechtere Arbeitswelt zu garantieren.

    „Eine große Erwartung jedoch ist, dass automatische Entscheidungen objektiver und konsistenter sein können als menschliche Entscheidungen. Diesen Erwartungen sollten Systeme auch gerecht werden“, sagt Nadine Schlicker. Um dies fortlaufend zu überprüfen, sind wiederum Erklärungen und Transparenz wichtig. Gerechte Entscheidungen müssen also nach wie vor letzten Endes von Menschen getroffen werden – Hilfe kann dabei jedoch sehr gut vom Kollegen Computer kommen.


    Contact for scientific information:

    Dr. Markus Langer
    Tel.: (0681) 3024767
    E-Mail: markus.langer@uni-saarland.de

    Nadine Schlicker
    E-Mail: nadine.schlicker@uni-marburg.de


    Original publication:

    Schlicker, N., Langer, M., Ötting, S., Baum, K., König, C. J., & Wallach, D. (2021). What to expect from opening up ‘Black Boxes’? Comparing perceptions of justice between human and automated agents. Computers in Human Behavior. https://doi.org/10.1016/j.chb.2021.106837


    Images

    Criteria of this press release:
    Journalists
    Psychology
    regional
    Research results, Scientific Publications
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).