Large Language Models (LLMs) – die fortgeschrittene KI-Technologie hinter Anwendungen wie ChatGPT – werden zunehmend in den Alltag integriert. Sie unterstützen bei Aufgaben wie dem Verfassen von E-Mails, dem Beantworten von Fragen oder sogar bei medizinischen Entscheidungsprozessen. Doch können diese Modelle auch soziale Situationen interpretieren, sind sie zu Kompromissen fähig oder können sie Vertrauen aufbauen? Eine neue Studie von Forschenden von Helmholtz Munich, dem Max-Planck-Institut für biologische Kybernetik und der Universität Tübingen zeigt: Trotz ihrer kognitiven Leistungsfähigkeit fehlt es heutigen KI-Systemen noch an sozialer Intelligenz.
Spiele können dazu beitragen, die soziale Kompetenz von KI zu analysieren
Um zu untersuchen, wie sich LLMs in sozialen Interaktionen verhalten, wandten die Forschenden die behaviorale Spieltheorie an – eine Methode, die typischerweise eingesetzt wird, um kooperatives, kompetitives und entscheidungsbezogenes Verhalten bei Menschen zu analysieren. Verschiedene KI-Modelle, darunter GPT-4, wurden in eine Reihe von Spielszenarien eingebunden, die soziale Interaktionen simulieren und dabei zentrale Parameter wie Fairness, Vertrauen und Kooperation evaluieren sollten.
Die Ergebnisse zeigten: GPT-4 war besonders erfolgreich bei Spielen, die logisches Schlussfolgern und strategisches Eigeninteresse erforderten. In Situationen, die auf Teamarbeit, Abstimmung und gemeinschaftliches Handeln angewiesen waren, offenbarte das Modell jedoch deutliche Schwächen.
„In manchen Fällen war die KI fast zu rational – zu ihrem eigenen Nachteil“, erklärt Dr. Eric Schulz, Seniorautor der Studie. „Sie konnte Bedrohungen oder egoistische Züge sofort erkennen und entsprechend reagieren, tat sich jedoch schwer damit, Vertrauen, Kooperation und Kompromissbereitschaft zu erfassen.“
Sozial kompetentes Verhalten trainieren
Um das Modell zu sozial kompetenterem Verhalten zu befähigen, setzten die Forschenden eine einfache, aber effektive Methode ein: Sie forderten die KI aktiv dazu auf, vor der eigenen Entscheidungsfindung die Perspektive der anderen Spielpartei mit zu berücksichtigen. Dieser Ansatz – Social Chain-of-Thought (SCoT) genannt – führte zu signifikanten Verbesserungen. Mithilfe von SCoT agierte das Modell kooperativer, anpassungsfähiger und erfolgreicher in der Erzielung wechselseitig vorteilhafter Ergebnisse – selbst im Austausch mit menschlichen Teilnehmenden.
„Sobald wir das Modell zu sozialem Denken angeregt haben, begann es, sich deutlich menschlicher zu verhalten“, berichtet Elif Akata, Erstautorin der Studie. „Interessanterweise konnten viele Menschen gar nicht mehr unterscheiden, ob sie mit einer KI oder einem echten Menschen interagierten.“
Potenzial für Gesundheitswesen und Patientenversorgung
Die Implikationen dieser Studie gehen weit über die Spieltheorie hinaus. Die Erkenntnisse bilden eine Grundlage für die Entwicklung stärker menschenzentrierter KI-Systeme – insbesondere im Gesundheitswesen, wo soziale Kognition essenziell ist. In Bereichen wie psychischer Gesundheit, chronischer Krankheitsbewältigung oder der Betreuung älterer Menschen hängt die Wirksamkeit der Unterstützung der Patienten nicht nur von inhaltlicher Richtigkeit und Informationsvermittlung ab, sondern auch von der Fähigkeit der KI, Vertrauen aufzubauen, soziale Signale zu deuten und Kooperation zu fördern. Durch die Modellierung und Verbesserung dieser sozialen Dynamiken ebnet die Studie den Weg für sozial intelligentere KI-Systeme, die für die Gesundheitsforschung und die Mensch-Maschine-Interaktion positive Effekte erzielen kann.
„Eine KI, die einen Patienten zur Medikamenteneinnahme motivieren, bei Angstzuständen unterstützen oder ein schwieriges Gespräch begleiten kann – genau dorthin entwickelt sich diese Forschung“, so Elif Akata.
Dr. Eric Schulz, https://hcai-munich.com/eric.html
Akata et al., 2025: Playing repeated games with Large Language Models. Nature Human Behaviour. DOI: https://doi.org/10.1038/s41562-025-02172-y
Merkmale dieser Pressemitteilung:
Journalisten, Wissenschaftler
Medizin, Psychologie
überregional
Wissenschaftliche Publikationen
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).