Es ist schon lange keine Science-Fiction mehr: Roboter kommunizieren mit Menschen; sie begrüßen Gäste in Hotels oder muntern pflegebedürftige Senioren auf. Was macht das mit uns? Nehmen wir die Maschinen wirklich als soziale Wesen wahr? Tatsächlich können sie Gefühle auslösen. Das zeigt eine Studie der Sozialpsychologie der Universität Duisburg-Essen (UDE), in der es Probanden mit einem ängstlichen Roboter zu tun bekamen.
In einem Experiment saßen 85 Personen einem Nao gegenüber – ein niedlicher Roboter, 58 Zentimeter groß, Kulleraugen. Den Probanden wurde gesagt, man wolle mithilfe einiger Aufgaben seine Interaktionsfähigkeit verbessern. Doch darum ging es dem Forscherteam um Prof. Nicole Krämer und Aike Horstmann nicht. Für sie war das Ende der Sitzung entscheidend: Alle Teilnehmenden wurden nämlich angewiesen, den Roboter abzustellen. Bei 43 von ihnen bettelte er plötzlich: „Nein! Bitte knipse mich nicht aus! Ich habe Angst vor der Dunkelheit!“ Daraufhin ließen ihn 13 Personen an. Die übrigen 30 brauchten doppelt so lange, den Aus-Knopf zu drücken, als die Vergleichsgruppe, bei der Nao nicht jammerte.
Woran lag das? Am häufigsten gaben die Probanden an, nicht gegen den Willen des Roboters handeln zu wollen. Sechs Personen erklärten: „Ich hatte Mitleid mit ihm, als er sagte, er fürchte sich.“ Weitere Motive waren: die Wahl gehabt zu haben, von der Situation überrascht worden zu sein, Neugier, was weiter passieren würde, und Furcht, etwas falsch zu machen. „Das belegt, dass wir Roboter zwar nicht bewusst als soziale Wesen sehen“, erläutert Studienleiterin Prof. Nicole Krämer. „Wenn sie aber menschlich reagieren, kann man nicht anders, als sie menschenähnlich zu behandeln. Das liegt an unserem angeborenen sozialen Verhalten.“
Spielt es eine Rolle, ob der Roboter vorher wie ein Mensch oder nüchtern wie eine Maschine mit den Probanden kommuniziert? Auch das testete das UDE-Team. Ausgerechnet diejenigen, die mit einem funktionalen Nao interagierten, zögerten lange, ihn auszuknipsen, als er emotional aufbegehrte. „Das war überraschend für uns“, so Aike Horstmann. „Wir denken, dass dies erhöhte kognitive Belastung auslöste, weil es besonders unvorhersehbar war.“
Wer allerdings einen sozialen Roboter vor der Nase hatte, fühlte sich nach dem Ausschalten schlechter. „Es hat also Folgen, wenn man Maschinen mit menschlichen Verhaltensweisen ausstattet. Man muss sich fragen, ob das ethisch wünschenswert ist“, meint Krämer. „Auf absehbare Zeit müssen wir uns jedoch keine Sorgen machen, dass Roboter uns dominieren. Die Technik ist noch lange nicht so weit.“
Die Studie ist in der Online-Fachzeitschrift PLOS One erschienen
Hinweis für die Redaktion:
Ein Foto (Fotonachweis: UDE/Sozialpsychologie) stellen wir Ihnen unter folgendem Link zur Verfügung: https://www.uni-due.de/de/presse/pi_fotos.php
Redaktion: Isabelle Sprang
Fachgebiet Sozialpsychologie: Medien und Kommunikation,
Prof. Nicole Krämer, Tel. 0203/37-92482, nicole.kraemer@uni-due.de;
Aike Horstmann, 0203/37-91293,aike.horstmann@uni-due.de
http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0201581
https://doi.org/10.1371/journal.pone.0201581
Merkmale dieser Pressemitteilung:
Journalisten, Wissenschaftler
Gesellschaft, Medien- und Kommunikationswissenschaften, Psychologie
überregional
Forschungsergebnisse
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).