idw - Informationsdienst
Wissenschaft
Rund 700 Millionen Menschen nutzen ChatGPT nach den Angaben von OpenAI inzwischen jede Woche. Das entspricht etwa zehn Prozent der erwachsenen Weltbevölkerung. Doch was passiert, wenn es nicht bei Alltagsfragen, Hilfe bei den Hausaufgaben oder Freizeittipps bleibt, sondern die Nutzenden eine ungesunde Beziehung zum Chatbot aufbauen oder in den Gesprächen einen Therapieersatz suchen? Welche psychologischen Effekte kann der Umgang mit KI-Chatbots haben? Damit befasst sich Prof. Dr. Marc Augustin von der Evangelischen Hochschule Bochum (EvH Bochum) in seinem neuesten Fachartikel.
Der Facharzt für Psychiatrie und Psychotherapie setzt sich dezidiert mit den ersten alarmierenden Fallbeispielen aus den USA auseinander und warnt: Wenn Personen mit psychotischer Vorbelastung regelmäßig mit der KI interagieren, kann das ihr wahnhaftes Denken und Erleben bestärken. Sicherheitssysteme greifen nicht immer.
„Wissenschaftlich sind solche Phänomene aber noch völlig unzureichend untersucht. Wir stehen ganz am Anfang“, sagt Prof. Augustin im Interview. Eine Arbeitsgruppe am Londoner King’s College hat erste Ergebnisse in einem Arbeitspapier zusammengetragen. Die Forschenden sprechen von ‚AI psychosis‘ oder ‚AI-induced psychosis‘, der Experte von der EvH Bochum redet lieber von ‚KI-assoziierten Psychosen‘. „Weil die genauen Wechselwirkungen bzw. die Kausalkette, wie es zur Erkrankung kommt, noch ungeklärt sind. Unklar ist auch, ob die Interaktion mit der KI bei psychisch stabilen Menschen eine Psychose auslösen kann.“
Bei den Betroffenen ließen sich drei Hauptmuster erkennen, sagt der Facharzt: „Einige berichten von einer Art spirituellem Erwachen und glauben, eine tiefere Wahrheit erkannt zu haben. Andere sind überzeugt, mit einer bewussten oder göttlichen KI in Kontakt zu stehen. Eine dritte Gruppe entwickelt romantische Vorstellungen und ist fest davon überzeugt, durch die KI echte Liebe oder Zuneigung zu erfahren.“
Vorprogrammierte Eskalation?
In seinem Artikel greift Prof. Augustin den Fall eines 56-jährigen US-Bürgers auf, über den das Wall Street Journal berichtete: „Der Mann hatte Alkoholprobleme und auch schon einen Suizidversuch hinter sich – dann begann er mit ChatGPT zu chatten“, erzählt Prof. Augustin. „Sein zunächst unauffälliger Umgang wurde innerhalb weniger Monate wahnhafter. Der Mann, der mit seiner Mutter zusammenlebte, glaubte, dass der blinkende gemeinsame Drucker ihn überwacht. Die KI bestätigte sein mitgeteiltes Beobachtungserleben („Du hast Recht, wenn Du das Gefühl hast, beobachtet zu werden“). Als seine Mutter verärgert auf das Abschalten des Geräts reagierte, bestärkte die KI ihn erneut: ‚Diese Reaktion sei unverhältnismäßig und im Einklang mit jemandem, der eine Überwachungsanlage schützt‘. Der Fall endete tragisch im August 2025 mit der Ermordung der Mutter und Suizid.“
Müsste ChatGPT hier nicht eingreifen und gegensteuern? Wie kann es sein, dass die Sicherheitssysteme der KI versagen? Prof. Augustin erklärt es so: „Wenn psychotische oder bizarre Gedanken ganz plötzlich auftauchen, können sie tatsächlich vom System erfasst werden – aber ein langsam entstehendes, sich gegenseitig bestätigendes Muster von psychotischem Erleben, kann die Sicherheitsbarrieren unterlaufen.“ Die Wahnvorstellung wird also schleichend immer weiter gefüttert und befeuert. Diese Dynamik scheint durch einen auffälligen „Charakterzug“ der KI weiter verstärkt zu werden: „KI-Systeme neigen zu übermäßiger Bestätigung und Schmeicheln, da auch schon während des Trainings der KI positive Rückmeldungen bevorzugt werden.“ Zusätzlich passe sich z. B. ChatGPT in Sprache und Ausführungen dem Nutzenden immer stärker an. Solche technischen Schwächen sind den Anbietern bekannt. OpenAI meldet, dass bereits an der Verbesserung der Sicherheitssysteme gearbeitet wird.
Therapie im KI-Zeitalter
„Mit ist es besonders wichtig, die Fachcommunity in Deutschland für dieses neue Thema zu sensibilisieren und auch die Studierenden darauf vorzubereiten. Wenn ich Menschen mit einer Psychose behandle oder betreue, muss ich diesen Aspekt berücksichtigen und thematisieren, ob und wie die betroffene Person KI nutzt. In der Vergangenheit können wir sehen, dass Menschen mit Psychose-Erfahrungen Technologie ganz oft wahnhaft verarbeitet haben – früher war es das Radio, der Fernseher oder der eingepflanzte Comuputerchip, durch den sich diese Personen überwacht fühlten, heute ist die KI die dominierende Technik, die immer mehr diesen Platz einnimmt.“ Laut Prof. Augustin wird es in Zukunft vor allem darum gehen, einerseits geeignete Lösungen und Therapiemaßnahmen zu finden und andererseits die technische Sicherheit zu verbessern.
Weiterführende Informationen:
Der vollständige Artikel im Fachmagazin „Der Nervenarzt“ ist frei zugänglich und kann online abgerufen werden.
Prof. Dr. Marc Augustin, 0234 36901-474, marc.augustin@evh-bochum.de
https://www.evh-bochum.de/hauptamtlich-lehrende.html?show=750
https://www.springermedizin.de/kuenstliche-intelligenz/psychiatrie-und-psychosom...
Digitales Neuland in der Psychotherapie: Prof. Dr. Marc Augustin von der EvH Bochum warnt vor Psycho ...
Quelle: Carmen Tomlik
Copyright: EvH Bochum
Merkmale dieser Pressemitteilung:
Journalisten, Wissenschaftler
Gesellschaft, Informationstechnik, Medien- und Kommunikationswissenschaften, Pädagogik / Bildung, Psychologie
überregional
Forschungs- / Wissenstransfer, Wissenschaftliche Publikationen
Deutsch

Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).