idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
13.11.2019 10:40

Mensch-Maschine-Interaktionen: Bots sind erfolgreicher, wenn sie sich als Menschen ausgeben

Artur Krutsch Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

    Ein internationales Forschungsteam unter Mitarbeit von Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, wollte wissen, ob bei Kooperation zwischen Mensch und Maschine es einen Unterschied macht, wenn die Maschine sich als Mensch ausgibt. Dazu führte das Team ein Experiment durch, in dem Menschen mit Bots interagierten. In der im Journal Nature Machine Intelligence erschienenen Studie zeigen die Forscher*innen, dass Bots bei bestimmten Mensch-Maschine-Interaktionen erfolgreicher sind als der Mensch – aber nur, wenn sie ihre nichtmenschliche Identität verbergen dürfen.

    Die künstlichen Stimmen von Siri, Alexa oder Google und ihre manchmal hölzernen Antworten lassen keinen Zweifel daran, dass wir uns hier nicht mit einem echten Menschen unterhalten. Doch neueste technologische Durchbrüche, die künstliche Intelligenz mit täuschend echten Menschenstimmen kombinieren, machen es möglich, dass Bots am Telefon als Menschen durchgehen. Dies führt zu neuen ethischen Fragen: Ist es Betrug, wenn Bots sich als Menschen ausgeben? Muss es eine Pflicht zur Transparenz geben?

    Bisherige Untersuchungen haben gezeigt, dass Menschen eher ungern mit intelligenten Bots kooperieren. Wenn Menschen nun aber gar nicht merken, dass sie mit einer Maschine interagieren und dadurch erfolgreicher miteinander kooperieren, wäre es dann nicht in manchen Fällen sinnvoll, die Täuschung aufrechtzuerhalten?

    Für die Studie, die in Nature Machine Intelligence veröffentlicht wurde, hat ein Forschungsteam aus den Vereinigten Arabischen Emiraten, den USA und Deutschland unter Mitarbeit von Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, fast 700 Teilnehmer*innen in einem Online-Kooperationsspiel aufgefordert, mit einem menschlichen oder einem künstlichen Spielpartner zu interagieren. Bei dem Spiel, das als Gefangenendilemma bekannt ist, können die Spieler entweder egoistisch handeln, um den anderen Spieler auszunutzen, oder sie handeln kooperativ, was für beide Seiten Vorteile bringt.

    Entscheidend für den Versuch war, dass die Forscher*innen einigen Teilnehmer*innen falsche Informationen über die Identität ihres Spielpartners gaben. Einigen Teilnehmer*innen, die mit einem Menschen interagierten, wurde gesagt, dass sie mit einem Bot interagierten und umgekehrt. So konnten die Forscher*innen feststellen, ob Menschen gegenüber Spielpartnern, die sie für Bots halten, Vorurteile haben und ob es für die Effizienz von Bots einen Unterschied macht, ob sie zugeben, dass sie Bots sind oder nicht.

    Die Ergebnisse zeigten, dass Bots, die sich als Menschen ausgaben, erfolgreicher darin waren, den Spielpartner zu einer Kooperation zu überreden. Sobald sie allerdings ihre wahre Natur enthüllten, sanken die Kooperationsraten. Übertragen auf ein realitätsnahes Szenario könnte dies zum Beispiel bedeuten, dass Helpdesks, die von Bots betrieben werden, eigentlich schneller und effizienter weiterhelfen könnten, wenn sie sich als Menschen ausgeben dürften. In welchen Fällen von Mensch-Maschine-Kooperationen Transparenz und in welchen Fällen Effizienz wichtiger ist, müsse die Gesellschaft aushandeln, sagen die Forscher*innen.

    ---

    Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.


    Originalpublikation:

    Ishowo-Oloko, F., Bonnefon, J.-F., Soroye, Z., Crandall, J., Rahwan, I., & Rahwan, T. (2019). Behavioural evidence for a transparency–efficiency tradeoff in human–machine cooperation. Nature Machine Intelligence. https://doi.org/10.1038/s42256-019-0113-5


    Weitere Informationen:

    https://www.mpib-berlin.mpg.de/de/presse/2019/11/mensch-maschine-interaktionen-b...


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten
    Informationstechnik, Psychologie
    überregional
    Forschungsergebnisse
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).