idw - Informationsdienst
Wissenschaft
Large Language Models (LLMs) können laut einer Studie der IESE Business School strategisch denken. Large Language Models sind KI-Technologien, die menschliche Sprache und Texte verstehen, analysieren und erzeugen. Aber imitieren sie lediglich oder können sie tatsächlich denken? In einer Reihe von Experimenten, die sich auf Spieltheorie und Kognitionswissenschaft stützen, zeigen die IESE-Professoren Veronica Cappelli und Enric Junqué de Fortuny, dass LLMs zu strategischem Denken fähig sind – sie bilden Überzeugungen, bewerten Optionen und handeln entsprechend.
Ihre Überzeugungen variieren auch systematisch, je nachdem, gegen wen sie ihrer Meinung nach spielen, wie aus einer neuen Forschungsarbeit der IESE Business School mit Campus in München hervorgeht. Wenn ihnen gesagt wird, dass sie gegen menschliche Gegner antreten, schränken sie ihre Argumentationstiefe ein. Wenn sie jedoch glauben, dass ihr Gegner ein anderes Sprachmodell ist, zeigen LLMs metakognitives Bewusstsein – sie überlegen, wie sich ein mit menschlichen Daten trainiertes Modell verhalten könnte, und beziehen diese Erwartung in ihre eigene Strategie ein. Diese Verhaltensweisen hinterfragen aktuelle Erkenntnisse, darunter eine Studie von Apple Research, die darauf hindeutet, dass das Denken von LLMs fragil ist und tatsächlich eher einem ausgeklügelten Musterabgleich ähnelt.
Stoßen ihre kognitiven Fähigkeiten an ihre Grenzen, ändern einige Modelle ihre Herangehensweise, so die Studie der IESE Business School. Anstatt ihre Argumentationskette zu erweitern, verlassen sie sich auf heuristische Regeln, die das Problem vereinfachen und gleichzeitig auf innere Kohärenz abzielen. In einigen Fällen spiegeln sie sogar menschliches Verhalten wider: Wenn das Denken ins Stocken gerät, greifen sie auf lose zusammenhängende Ideen oder Analogien zurück, die hilfreich sein könnten. Diese Tendenz, nach assoziativen Hinweisen zu suchen, wenn das direkte Denken versagt, fügt der sich entwickelnden strategischen Kognition der künstlichen Intelligenz eine weitere Ebene hinzu.
Die Ergebnisse der IESE-Professoren Veronica Cappelli und Enric Junqué de Fortuny zeigen, dass LLMs weder bloße Nachahmer noch vollkommen rationale Akteure sind, sondern etwas dazwischen. Sie sind fähig, Überzeugungen herauszubilden, adaptiv zu denken, fähig zur Heuristik, die menschliche kognitive Muster widerspiegelt. Für Ökonomen, politische Entscheidungsträger und alle, die sich dafür interessieren, wie sich künstliche Akteure in Märkten oder Verhandlungen verhalten, eröffnet diese Arbeit einen neuen Blickwinkel. Sie zeigt, was es für Maschinen bedeutet, in komplexen und konfliktreichen Situationen strategisch denken.
Prof. Veronica Cappelli, IESE Business School
https://www.iese.edu/faculty-research/faculty/veronica-roberta-cappelli/
Prof. Enric Junqué de Fortuny, IESE Business School
https://www.iese.edu/faculty-research/faculty/enric-junque-de-fortuny/
Criteria of this press release:
Business and commerce, Journalists, all interested persons
Economics / business administration, Information technology
transregional, national
Research results
German

You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).