idw - Informationsdienst
Wissenschaft
Wissenschaftler der DHBW Karlsruhe zeigt auf, wie Fake News und Deepfakes
das Urteilsvermögen beeinflussen
Im Superwahljahr findet Wahlkampf längst nicht mehr nur auf Plakaten, in Talkshows oder auf Marktplätzen statt. Er läuft parallel auf dem Smartphone: in Feeds, Messenger-Gruppen und Kommentarspalten. Genau dort häufen sich irreführende Meldungen, manipulierte Bilder und immer öfter auch KI-generierte Inhalte. Das Gefährliche daran: Solche Fälschungen müssen nicht perfekt sein, um zu wirken. Oft genügt „gut genug“, wenn Kontext und Timing passen. Ein Clip wird kurz vor einer Debatte verbreitet, ein Screenshot taucht auf, wenn die Emotionen ohnehin hochkochen, eine angebliche „Enthüllung“ landet zu später Stunde im Gruppenchat und wird reflexartig weitergeleitet.
Hinzu kommt ein Effekt, der noch gravierender ist als einzelne Falschmeldungen: Vertrauensverlust. Wenn Deepfakes möglich sind, entsteht schnell ein doppelter Zweifel. Fake könnte echt sein. Echt könnte Fake sein. Wer diesen Eindruck verinnerlicht, zieht sich entweder ganz zurück („Man weiß ja gar nichts mehr“) oder klammert sich umso stärker an das, was vertraut wirkt. Sei es etwa die eigene „Bubble“ oder besonders laute Erzählungen. Genau diese Unsicherheit kann jedoch die demokratische Meinungsbildung beeinträchtigen, weil sie Diskussionen vergiftet und die Bereitschaft senkt, sich überhaupt noch auf Fakten zu einigen.
Warum sind wir dafür so anfällig? „Nicht, weil Menschen weniger intelligent oder zu leichtgläubig wären, sondern weil unser Gehirn sehr effizient funktioniert“, ordnet Jan Michael Rasimus, Leiter des Eye Tracking-Labors der DHBW Karlsruhe, den Sachverhalt ein. Es nutzt Denkabkürzungen, sogenannte Heuristiken. „Damit sparen wir Energie und können im Alltag schnell entscheiden. Das ist grundsätzlich sinnvoll. Im digitalen Wahlkampf werden diese Abkürzungen jedoch mitunter auch durch entsprechende Inhalte bewusst angesprochen und ausgenutzt.“
Ein paar typische Mechanismen lassen sich leicht beobachten:
Der Negativity Bias sorgt dafür, dass Negatives unsere Aufmerksamkeit stärker bindet als Sachinformationen. Ein Skandal zieht den Blick auf sich, die nüchterne Einordnung wird übersehen. Der Social Proof wirkt, wenn viele liken, kommentieren oder teilen. Dann erscheint ein Inhalt schnell plausibel, weil er bereits in der eigenen „Bubble“ zirkuliert. Der Confirmation Bias macht uns selektiv. Was zum eigenen Weltbild passt, akzeptieren wir schneller, was nicht passt, prüfen wir strenger oder lehnen es reflexhaft ab. Und der Illusory-Truth-Effekt verstärkt sich durch Wiederholung: Was wir mehrfach sehen, fühlt sich vertraut an. Vertrautheit wird unbewusst oft mit Plausibilität verwechselt.
Die Anfälligkeit wird im Wahlkampf gezielt getriggert: durch Angst, Empörung, scheinbare Mehrheiten, personalisierte Algorithmen und Wiederholung. „In unseren Eye-Tracking-Analysen wird sichtbar, wie stark die Wahrnehmung durch Reize gelenkt wird. Dramatische Überschriften, grelle Farben, starke Bilder und bestimmte Signalwörter ziehen Aufmerksamkeit fast automatisch an. Quelle und Kontext landen oft erst viel später im Blick, manchmal gar nicht. Je emotionaler ein Inhalt gestaltet ist, desto eher übernimmt der Autopilot. Wer in diesem Moment teilt, reagiert häufig nicht auf Fakten, sondern auf ein Gefühl“, gibt Rasimus zu bedenken. Ein alltagstauglicher Tipp: „Bevor Sie teilen oder weiterleiten, fünf Sekunden bewusst ein- und auszuatmen. Außerdem hilft die PRÜF-Methode, eine einfache Routine, die wir auch regelmäßig in Workshops vermitteln:“
PRÜF: der schnelle Faktencheck gegen Fake News
P: Pause machen und Gehirn einschalten. Halten Sie inne und denken Sie kritisch.
R: Reflektiere die Veröffentlichung. Hinterfragen Sie Quelle, Absicht und Gestaltung.
Ü: Überblick zur Berichterstattung. Suchen Sie nach unabhängigen, seriösen Quellen.
F: Finde den Ursprung. Verfolgen Sie die Nachricht zum Ausgangspunkt zurück.
Wenn einer der Punkte unklar bleibt, sollte die Nachricht auch nicht weiterverbreitet werden.
Jan-Michael Rasimus
Leitung Eye Tracking-Labor
Tel.: 0721 / 9735-865
E-Mail: janmichael.Rasimus@dhbw-karlsruhe.de
Wahlkampf in Zeiten der Täuschung - wie Fake News und Deepfakes das Urteilsvermögen beeinflussen
Quelle: Jan-Michael Rasimus
Copyright: DHBW KA//RM erstellt mit KI - „4o Image Generation“
Jan-Michael Rasimus, Leiter des Eye Tracking-Labors der DHBW Karlsruhe
Quelle: Jenny Habermehl
Copyright: DHBW KA//J. Habermehl
Merkmale dieser Pressemitteilung:
Journalisten, Wissenschaftler, jedermann
Gesellschaft, Medien- und Kommunikationswissenschaften
überregional
Buntes aus der Wissenschaft
Deutsch

Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).