idw - Informationsdienst
Wissenschaft
Ein internationales Forschungsteam unter Mitarbeit von Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, wollte wissen, ob bei Kooperation zwischen Mensch und Maschine es einen Unterschied macht, wenn die Maschine sich als Mensch ausgibt. Dazu führte das Team ein Experiment durch, in dem Menschen mit Bots interagierten. In der im Journal Nature Machine Intelligence erschienenen Studie zeigen die Forscher*innen, dass Bots bei bestimmten Mensch-Maschine-Interaktionen erfolgreicher sind als der Mensch – aber nur, wenn sie ihre nichtmenschliche Identität verbergen dürfen.
Die künstlichen Stimmen von Siri, Alexa oder Google und ihre manchmal hölzernen Antworten lassen keinen Zweifel daran, dass wir uns hier nicht mit einem echten Menschen unterhalten. Doch neueste technologische Durchbrüche, die künstliche Intelligenz mit täuschend echten Menschenstimmen kombinieren, machen es möglich, dass Bots am Telefon als Menschen durchgehen. Dies führt zu neuen ethischen Fragen: Ist es Betrug, wenn Bots sich als Menschen ausgeben? Muss es eine Pflicht zur Transparenz geben?
Bisherige Untersuchungen haben gezeigt, dass Menschen eher ungern mit intelligenten Bots kooperieren. Wenn Menschen nun aber gar nicht merken, dass sie mit einer Maschine interagieren und dadurch erfolgreicher miteinander kooperieren, wäre es dann nicht in manchen Fällen sinnvoll, die Täuschung aufrechtzuerhalten?
Für die Studie, die in Nature Machine Intelligence veröffentlicht wurde, hat ein Forschungsteam aus den Vereinigten Arabischen Emiraten, den USA und Deutschland unter Mitarbeit von Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, fast 700 Teilnehmer*innen in einem Online-Kooperationsspiel aufgefordert, mit einem menschlichen oder einem künstlichen Spielpartner zu interagieren. Bei dem Spiel, das als Gefangenendilemma bekannt ist, können die Spieler entweder egoistisch handeln, um den anderen Spieler auszunutzen, oder sie handeln kooperativ, was für beide Seiten Vorteile bringt.
Entscheidend für den Versuch war, dass die Forscher*innen einigen Teilnehmer*innen falsche Informationen über die Identität ihres Spielpartners gaben. Einigen Teilnehmer*innen, die mit einem Menschen interagierten, wurde gesagt, dass sie mit einem Bot interagierten und umgekehrt. So konnten die Forscher*innen feststellen, ob Menschen gegenüber Spielpartnern, die sie für Bots halten, Vorurteile haben und ob es für die Effizienz von Bots einen Unterschied macht, ob sie zugeben, dass sie Bots sind oder nicht.
Die Ergebnisse zeigten, dass Bots, die sich als Menschen ausgaben, erfolgreicher darin waren, den Spielpartner zu einer Kooperation zu überreden. Sobald sie allerdings ihre wahre Natur enthüllten, sanken die Kooperationsraten. Übertragen auf ein realitätsnahes Szenario könnte dies zum Beispiel bedeuten, dass Helpdesks, die von Bots betrieben werden, eigentlich schneller und effizienter weiterhelfen könnten, wenn sie sich als Menschen ausgeben dürften. In welchen Fällen von Mensch-Maschine-Kooperationen Transparenz und in welchen Fällen Effizienz wichtiger ist, müsse die Gesellschaft aushandeln, sagen die Forscher*innen.
---
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.
Ishowo-Oloko, F., Bonnefon, J.-F., Soroye, Z., Crandall, J., Rahwan, I., & Rahwan, T. (2019). Behavioural evidence for a transparency–efficiency tradeoff in human–machine cooperation. Nature Machine Intelligence. https://doi.org/10.1038/s42256-019-0113-5
https://www.mpib-berlin.mpg.de/de/presse/2019/11/mensch-maschine-interaktionen-b...
Merkmale dieser Pressemitteilung:
Journalisten
Informationstechnik, Psychologie
überregional
Forschungsergebnisse
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).