Im Umgang mit Chatbots reagieren Menschen emotional und sozial. Das birgt Gefahren, denen ein neues Projekt am Lehrstuhl für Medienpsychologie entgegenwirken will.
Künstliche Intelligenz (KI) verändert die Art, wie Menschen kommunizieren. Gespräche, die bis vor Kurzem nur mit einem Gegenüber aus Fleisch und Blut möglich waren, sind heute auch mit einer KI möglich: „Chatbots wie ChatGPT ahmen das menschliche Kommunikationsverhalten nahezu perfekt nach – und das so gut, dass wir das Gefühl bekommen, es mit einem Menschen und nicht mit einem technischen System zu tun zu haben“, sagt die Medienpsychologin Dr. Astrid Carolus von der Julius-Maximilians-Universität (JMU) Würzburg.
Was mit vielen Vorteilen verbunden ist, bringt auch Nachteile mit sich: „Die Nutzerinnen und Nutzer reagieren bei der Interaktion mit KI-Systemen ähnlich wie bei zwischenmenschlichen Begegnungen. Auch wenn ihnen bewusst ist, dass sie mit einer Maschine kommunizieren, neigen Sie dazu, sozial und emotional zu werden“, erklärt die Würzburger Forscherin. Das könne problematisch sein, etwa wenn Menschen nicht nachdenken und sensible Daten preisgeben oder den Empfehlungen der KI unkritisch folgen.
Nutzerinnen und Nutzern Unterstützung anbieten
Hier setzt ein neues Projekt von Astrid Carolus an: Sie will die psychologischen Mechanismen der Mensch-KI-Interaktion analysieren und auf Grundlage der Ergebnisse Unterstützungsmaßnahmen entwickeln, die vor den Gefahren der unachtsamen KI-Nutzung schützen. Die DATEV-Stiftung Zukunft (Nürnberg) fördert das Projekt.
Am Anfang steht die Analyse psychologischer Aspekte der Mensch-KI-Interaktion: In Experimenten im Labor und in echten Alltagssituationen wird geprüft, inwieweit Nutzerinnen und Nutzer bei Interaktionen mit Chatbots sich so verhalten, wie sie es sonst nur bei Gesprächen mit einem menschlichen Gegenüber tun würden. „Wir interessieren uns zum Beispiel dafür, ob Geschlechterstereotype oder Höflichkeitsnormen auch in Begegnungen mit Chatbots gelten“, erklärt die Forscherin. Weiter werde untersucht, welche psychologischen Merkmale und Mechanismen solche Reaktionen begünstigen.
Basierend auf den Ergebnissen will die JMU-Wissenschaftlerin dann Lerneinheiten entwickeln, mit denen die Nutzerinnen und Nutzer ihre Reaktionen auf KI-Systeme reflektieren, manipulative Versuche der KI erkennen und souverän damit umgehen können. Die Öffentlichkeit soll auf die ersten Ergebnisse der Analysen und Lerneinheiten voraussichtlich Mitte 2026 auf einer Online-Plattform zugreifen können.
Dr. habil. Astrid Carolus, Lehrstuhl für Medienpsychologie, Universität Würzburg, +49 931 31-82813, astrid.carolus@uni-wuerzburg.de
Merkmale dieser Pressemitteilung:
Journalisten, Studierende, Wissenschaftler, jedermann
Informationstechnik, Psychologie
überregional
Forschungsprojekte
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).