Inwieweit sind Menschen bereit, Rücksicht auf Roboter zu nehmen? Die Empathie geht so weit, dass sie unter Umständen Menschenleben gefährden würden, zeigt eine neue Studie.
Roboter als Minenräumer, Pflegeassistent oder Haushaltshelfer – je mehr Maschinen mit künstlicher Intelligenz Einzug in Alltag und Beruf nehmen, desto drängender stellt sich die Frage, wie Menschen die künstlichen Gefährten wahrnehmen und sich ihnen gegenüber verhalten. Ein Team um Sari Nijssen von der Radboud University in Nijmegen, Niederlande, und Markus Paulus, Professor für Entwicklungspsychologie an der LMU, hat nun in einer Studie untersucht, inwiefern sich Menschen Robotern gegenüber mitfühlend verhalten und ihrem Verhalten moralische Prinzipien zugrundelegen. Über die Ergebnisse berichten sie aktuell in der Fachzeitschrift Social Cognition.
„Wir haben untersucht, inwieweit Erwachsene bereit sind, Roboter zu opfern, um Menschen zu retten“, beschreib Sari Nijssen die Fragestellung der Studie. Die Teilnehmer der Studie wurden vor ein sogenanntes moralisches Dilemma gestellt: Würden sie einen Einzelnen in Lebensgefahr bringen, um eine Gruppe verletzter Menschen zu retten? In unterschiedlichen Szenarien handelte es sich dabei mal um einen Menschen, mal um einen sogenannten humanoiden Roboter mit menschlichen Zügen und mal um einen Roboter, der klar als Maschine zu erkennen war.
Wie die Studie zeigt, wurde das Dilemma umso drängender, je mehr der Roboter einem Menschen ähnelte. Sobald dieser in kurzen Geschichten als mitfühlendes Wesen oder als Wesen mit eigenen Erfahrungen und Vorstellungen dargestellt wurde, fiel es den Probanden schwerer, diesen zu „opfern“, um Menschenleben zu retten. Die Empathie mit der Maschine ging bei manchen der Teilnehmerinnen und Teilnehmer so weit, dass sie bereit waren, die Gruppe verletzter Menschen zu opfern, nur damit dem Roboter nichts passiert. „Je menschenähnlicher die Roboter waren, insbesondere je mehr man ihm Gefühle zusprach, desto weniger waren die Versuchspersonen in unserem experimentellen Szenario geneigt, den Roboter zu opfern“, sagt Paulus. „Das weist darauf hin, dass dem Roboter eine Art moralischer Status zugesprochen wurde. Eine mögliche Implikation ist, dass wir vorsichtig sein sollten, Roboter immer menschenähnlicher zu machen. Dies könnte mit ihrer eigentlichen Funktion, Menschen zu helfen, kollidieren.“
Professor Markus Paulus
Lehrstuhl für Entwicklungspsychologie und Pädagogische Psychologie II
LMU
Tel.: +49 (0) 89/2180-5150
E-Mail: markus.paulus@lmu.de
Publikation:
Sari R. R. Nijssen, Barbara C. N. Müller, Rich B. van Baaren, Markus Paulus:
„Saving the robot or the human? Robots who feel deserve moral care“.
In: Social Cognition 2018
https://guilfordjournals.com/doi/abs/10.1521/soco.2019.37.1.41
https://lmzvd06-lmumediapool.srv.mwn.de/collection/ba2dcf83-5a06-424f-aa6e-12250...
Criteria of this press release:
Journalists
Information technology, Psychology, Social studies
transregional, national
Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).