idw - Informationsdienst
Wissenschaft
Inwieweit sind Menschen bereit, Rücksicht auf Roboter zu nehmen? Die Empathie geht so weit, dass sie unter Umständen Menschenleben gefährden würden, zeigt eine neue Studie.
Roboter als Minenräumer, Pflegeassistent oder Haushaltshelfer – je mehr Maschinen mit künstlicher Intelligenz Einzug in Alltag und Beruf nehmen, desto drängender stellt sich die Frage, wie Menschen die künstlichen Gefährten wahrnehmen und sich ihnen gegenüber verhalten. Ein Team um Sari Nijssen von der Radboud University in Nijmegen, Niederlande, und Markus Paulus, Professor für Entwicklungspsychologie an der LMU, hat nun in einer Studie untersucht, inwiefern sich Menschen Robotern gegenüber mitfühlend verhalten und ihrem Verhalten moralische Prinzipien zugrundelegen. Über die Ergebnisse berichten sie aktuell in der Fachzeitschrift Social Cognition.
„Wir haben untersucht, inwieweit Erwachsene bereit sind, Roboter zu opfern, um Menschen zu retten“, beschreib Sari Nijssen die Fragestellung der Studie. Die Teilnehmer der Studie wurden vor ein sogenanntes moralisches Dilemma gestellt: Würden sie einen Einzelnen in Lebensgefahr bringen, um eine Gruppe verletzter Menschen zu retten? In unterschiedlichen Szenarien handelte es sich dabei mal um einen Menschen, mal um einen sogenannten humanoiden Roboter mit menschlichen Zügen und mal um einen Roboter, der klar als Maschine zu erkennen war.
Wie die Studie zeigt, wurde das Dilemma umso drängender, je mehr der Roboter einem Menschen ähnelte. Sobald dieser in kurzen Geschichten als mitfühlendes Wesen oder als Wesen mit eigenen Erfahrungen und Vorstellungen dargestellt wurde, fiel es den Probanden schwerer, diesen zu „opfern“, um Menschenleben zu retten. Die Empathie mit der Maschine ging bei manchen der Teilnehmerinnen und Teilnehmer so weit, dass sie bereit waren, die Gruppe verletzter Menschen zu opfern, nur damit dem Roboter nichts passiert. „Je menschenähnlicher die Roboter waren, insbesondere je mehr man ihm Gefühle zusprach, desto weniger waren die Versuchspersonen in unserem experimentellen Szenario geneigt, den Roboter zu opfern“, sagt Paulus. „Das weist darauf hin, dass dem Roboter eine Art moralischer Status zugesprochen wurde. Eine mögliche Implikation ist, dass wir vorsichtig sein sollten, Roboter immer menschenähnlicher zu machen. Dies könnte mit ihrer eigentlichen Funktion, Menschen zu helfen, kollidieren.“
Professor Markus Paulus
Lehrstuhl für Entwicklungspsychologie und Pädagogische Psychologie II
LMU
Tel.: +49 (0) 89/2180-5150
E-Mail: markus.paulus@lmu.de
Publikation:
Sari R. R. Nijssen, Barbara C. N. Müller, Rich B. van Baaren, Markus Paulus:
„Saving the robot or the human? Robots who feel deserve moral care“.
In: Social Cognition 2018
https://guilfordjournals.com/doi/abs/10.1521/soco.2019.37.1.41
https://lmzvd06-lmumediapool.srv.mwn.de/collection/ba2dcf83-5a06-424f-aa6e-12250...
Merkmale dieser Pressemitteilung:
Journalisten
Gesellschaft, Informationstechnik, Psychologie
überregional
Forschungsergebnisse
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).