Im Umgang mit Chatbots reagieren Menschen emotional und sozial. Das birgt Gefahren, denen ein neues Projekt am Lehrstuhl für Medienpsychologie entgegenwirken will.
Künstliche Intelligenz (KI) verändert die Art, wie Menschen kommunizieren. Gespräche, die bis vor Kurzem nur mit einem Gegenüber aus Fleisch und Blut möglich waren, sind heute auch mit einer KI möglich: „Chatbots wie ChatGPT ahmen das menschliche Kommunikationsverhalten nahezu perfekt nach – und das so gut, dass wir das Gefühl bekommen, es mit einem Menschen und nicht mit einem technischen System zu tun zu haben“, sagt die Medienpsychologin Dr. Astrid Carolus von der Julius-Maximilians-Universität (JMU) Würzburg.
Was mit vielen Vorteilen verbunden ist, bringt auch Nachteile mit sich: „Die Nutzerinnen und Nutzer reagieren bei der Interaktion mit KI-Systemen ähnlich wie bei zwischenmenschlichen Begegnungen. Auch wenn ihnen bewusst ist, dass sie mit einer Maschine kommunizieren, neigen Sie dazu, sozial und emotional zu werden“, erklärt die Würzburger Forscherin. Das könne problematisch sein, etwa wenn Menschen nicht nachdenken und sensible Daten preisgeben oder den Empfehlungen der KI unkritisch folgen.
Nutzerinnen und Nutzern Unterstützung anbieten
Hier setzt ein neues Projekt von Astrid Carolus an: Sie will die psychologischen Mechanismen der Mensch-KI-Interaktion analysieren und auf Grundlage der Ergebnisse Unterstützungsmaßnahmen entwickeln, die vor den Gefahren der unachtsamen KI-Nutzung schützen. Die DATEV-Stiftung Zukunft (Nürnberg) fördert das Projekt.
Am Anfang steht die Analyse psychologischer Aspekte der Mensch-KI-Interaktion: In Experimenten im Labor und in echten Alltagssituationen wird geprüft, inwieweit Nutzerinnen und Nutzer bei Interaktionen mit Chatbots sich so verhalten, wie sie es sonst nur bei Gesprächen mit einem menschlichen Gegenüber tun würden. „Wir interessieren uns zum Beispiel dafür, ob Geschlechterstereotype oder Höflichkeitsnormen auch in Begegnungen mit Chatbots gelten“, erklärt die Forscherin. Weiter werde untersucht, welche psychologischen Merkmale und Mechanismen solche Reaktionen begünstigen.
Basierend auf den Ergebnissen will die JMU-Wissenschaftlerin dann Lerneinheiten entwickeln, mit denen die Nutzerinnen und Nutzer ihre Reaktionen auf KI-Systeme reflektieren, manipulative Versuche der KI erkennen und souverän damit umgehen können. Die Öffentlichkeit soll auf die ersten Ergebnisse der Analysen und Lerneinheiten voraussichtlich Mitte 2026 auf einer Online-Plattform zugreifen können.
Dr. habil. Astrid Carolus, Lehrstuhl für Medienpsychologie, Universität Würzburg, +49 931 31-82813, astrid.carolus@uni-wuerzburg.de
Criteria of this press release:
Journalists, Scientists and scholars, Students, all interested persons
Information technology, Psychology
transregional, national
Research projects
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).