Ein internationales Forschungsteam unter Mitarbeit von Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, wollte wissen, ob bei Kooperation zwischen Mensch und Maschine es einen Unterschied macht, wenn die Maschine sich als Mensch ausgibt. Dazu führte das Team ein Experiment durch, in dem Menschen mit Bots interagierten. In der im Journal Nature Machine Intelligence erschienenen Studie zeigen die Forscher*innen, dass Bots bei bestimmten Mensch-Maschine-Interaktionen erfolgreicher sind als der Mensch – aber nur, wenn sie ihre nichtmenschliche Identität verbergen dürfen.
Die künstlichen Stimmen von Siri, Alexa oder Google und ihre manchmal hölzernen Antworten lassen keinen Zweifel daran, dass wir uns hier nicht mit einem echten Menschen unterhalten. Doch neueste technologische Durchbrüche, die künstliche Intelligenz mit täuschend echten Menschenstimmen kombinieren, machen es möglich, dass Bots am Telefon als Menschen durchgehen. Dies führt zu neuen ethischen Fragen: Ist es Betrug, wenn Bots sich als Menschen ausgeben? Muss es eine Pflicht zur Transparenz geben?
Bisherige Untersuchungen haben gezeigt, dass Menschen eher ungern mit intelligenten Bots kooperieren. Wenn Menschen nun aber gar nicht merken, dass sie mit einer Maschine interagieren und dadurch erfolgreicher miteinander kooperieren, wäre es dann nicht in manchen Fällen sinnvoll, die Täuschung aufrechtzuerhalten?
Für die Studie, die in Nature Machine Intelligence veröffentlicht wurde, hat ein Forschungsteam aus den Vereinigten Arabischen Emiraten, den USA und Deutschland unter Mitarbeit von Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, fast 700 Teilnehmer*innen in einem Online-Kooperationsspiel aufgefordert, mit einem menschlichen oder einem künstlichen Spielpartner zu interagieren. Bei dem Spiel, das als Gefangenendilemma bekannt ist, können die Spieler entweder egoistisch handeln, um den anderen Spieler auszunutzen, oder sie handeln kooperativ, was für beide Seiten Vorteile bringt.
Entscheidend für den Versuch war, dass die Forscher*innen einigen Teilnehmer*innen falsche Informationen über die Identität ihres Spielpartners gaben. Einigen Teilnehmer*innen, die mit einem Menschen interagierten, wurde gesagt, dass sie mit einem Bot interagierten und umgekehrt. So konnten die Forscher*innen feststellen, ob Menschen gegenüber Spielpartnern, die sie für Bots halten, Vorurteile haben und ob es für die Effizienz von Bots einen Unterschied macht, ob sie zugeben, dass sie Bots sind oder nicht.
Die Ergebnisse zeigten, dass Bots, die sich als Menschen ausgaben, erfolgreicher darin waren, den Spielpartner zu einer Kooperation zu überreden. Sobald sie allerdings ihre wahre Natur enthüllten, sanken die Kooperationsraten. Übertragen auf ein realitätsnahes Szenario könnte dies zum Beispiel bedeuten, dass Helpdesks, die von Bots betrieben werden, eigentlich schneller und effizienter weiterhelfen könnten, wenn sie sich als Menschen ausgeben dürften. In welchen Fällen von Mensch-Maschine-Kooperationen Transparenz und in welchen Fällen Effizienz wichtiger ist, müsse die Gesellschaft aushandeln, sagen die Forscher*innen.
---
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.
Ishowo-Oloko, F., Bonnefon, J.-F., Soroye, Z., Crandall, J., Rahwan, I., & Rahwan, T. (2019). Behavioural evidence for a transparency–efficiency tradeoff in human–machine cooperation. Nature Machine Intelligence. https://doi.org/10.1038/s42256-019-0113-5
https://www.mpib-berlin.mpg.de/de/presse/2019/11/mensch-maschine-interaktionen-b...
Criteria of this press release:
Journalists
Information technology, Psychology
transregional, national
Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).