Wissenschaftler der DHBW Karlsruhe zeigt auf, wie Fake News und Deepfakes
das Urteilsvermögen beeinflussen
Im Superwahljahr findet Wahlkampf längst nicht mehr nur auf Plakaten, in Talkshows oder auf Marktplätzen statt. Er läuft parallel auf dem Smartphone: in Feeds, Messenger-Gruppen und Kommentarspalten. Genau dort häufen sich irreführende Meldungen, manipulierte Bilder und immer öfter auch KI-generierte Inhalte. Das Gefährliche daran: Solche Fälschungen müssen nicht perfekt sein, um zu wirken. Oft genügt „gut genug“, wenn Kontext und Timing passen. Ein Clip wird kurz vor einer Debatte verbreitet, ein Screenshot taucht auf, wenn die Emotionen ohnehin hochkochen, eine angebliche „Enthüllung“ landet zu später Stunde im Gruppenchat und wird reflexartig weitergeleitet.
Hinzu kommt ein Effekt, der noch gravierender ist als einzelne Falschmeldungen: Vertrauensverlust. Wenn Deepfakes möglich sind, entsteht schnell ein doppelter Zweifel. Fake könnte echt sein. Echt könnte Fake sein. Wer diesen Eindruck verinnerlicht, zieht sich entweder ganz zurück („Man weiß ja gar nichts mehr“) oder klammert sich umso stärker an das, was vertraut wirkt. Sei es etwa die eigene „Bubble“ oder besonders laute Erzählungen. Genau diese Unsicherheit kann jedoch die demokratische Meinungsbildung beeinträchtigen, weil sie Diskussionen vergiftet und die Bereitschaft senkt, sich überhaupt noch auf Fakten zu einigen.
Warum sind wir dafür so anfällig? „Nicht, weil Menschen weniger intelligent oder zu leichtgläubig wären, sondern weil unser Gehirn sehr effizient funktioniert“, ordnet Jan Michael Rasimus, Leiter des Eye Tracking-Labors der DHBW Karlsruhe, den Sachverhalt ein. Es nutzt Denkabkürzungen, sogenannte Heuristiken. „Damit sparen wir Energie und können im Alltag schnell entscheiden. Das ist grundsätzlich sinnvoll. Im digitalen Wahlkampf werden diese Abkürzungen jedoch mitunter auch durch entsprechende Inhalte bewusst angesprochen und ausgenutzt.“
Ein paar typische Mechanismen lassen sich leicht beobachten:
Der Negativity Bias sorgt dafür, dass Negatives unsere Aufmerksamkeit stärker bindet als Sachinformationen. Ein Skandal zieht den Blick auf sich, die nüchterne Einordnung wird übersehen. Der Social Proof wirkt, wenn viele liken, kommentieren oder teilen. Dann erscheint ein Inhalt schnell plausibel, weil er bereits in der eigenen „Bubble“ zirkuliert. Der Confirmation Bias macht uns selektiv. Was zum eigenen Weltbild passt, akzeptieren wir schneller, was nicht passt, prüfen wir strenger oder lehnen es reflexhaft ab. Und der Illusory-Truth-Effekt verstärkt sich durch Wiederholung: Was wir mehrfach sehen, fühlt sich vertraut an. Vertrautheit wird unbewusst oft mit Plausibilität verwechselt.
Die Anfälligkeit wird im Wahlkampf gezielt getriggert: durch Angst, Empörung, scheinbare Mehrheiten, personalisierte Algorithmen und Wiederholung. „In unseren Eye-Tracking-Analysen wird sichtbar, wie stark die Wahrnehmung durch Reize gelenkt wird. Dramatische Überschriften, grelle Farben, starke Bilder und bestimmte Signalwörter ziehen Aufmerksamkeit fast automatisch an. Quelle und Kontext landen oft erst viel später im Blick, manchmal gar nicht. Je emotionaler ein Inhalt gestaltet ist, desto eher übernimmt der Autopilot. Wer in diesem Moment teilt, reagiert häufig nicht auf Fakten, sondern auf ein Gefühl“, gibt Rasimus zu bedenken. Ein alltagstauglicher Tipp: „Bevor Sie teilen oder weiterleiten, fünf Sekunden bewusst ein- und auszuatmen. Außerdem hilft die PRÜF-Methode, eine einfache Routine, die wir auch regelmäßig in Workshops vermitteln:“
PRÜF: der schnelle Faktencheck gegen Fake News
P: Pause machen und Gehirn einschalten. Halten Sie inne und denken Sie kritisch.
R: Reflektiere die Veröffentlichung. Hinterfragen Sie Quelle, Absicht und Gestaltung.
Ü: Überblick zur Berichterstattung. Suchen Sie nach unabhängigen, seriösen Quellen.
F: Finde den Ursprung. Verfolgen Sie die Nachricht zum Ausgangspunkt zurück.
Wenn einer der Punkte unklar bleibt, sollte die Nachricht auch nicht weiterverbreitet werden.
Jan-Michael Rasimus
Leitung Eye Tracking-Labor
Tel.: 0721 / 9735-865
E-Mail: janmichael.Rasimus@dhbw-karlsruhe.de
Wahlkampf in Zeiten der Täuschung - wie Fake News und Deepfakes das Urteilsvermögen beeinflussen
Source: Jan-Michael Rasimus
Copyright: DHBW KA//RM erstellt mit KI - „4o Image Generation“
Jan-Michael Rasimus, Leiter des Eye Tracking-Labors der DHBW Karlsruhe
Source: Jenny Habermehl
Copyright: DHBW KA//J. Habermehl
Criteria of this press release:
Journalists, Scientists and scholars, all interested persons
Media and communication sciences, Social studies
transregional, national
Miscellaneous scientific news/publications
German

Wahlkampf in Zeiten der Täuschung - wie Fake News und Deepfakes das Urteilsvermögen beeinflussen
Source: Jan-Michael Rasimus
Copyright: DHBW KA//RM erstellt mit KI - „4o Image Generation“
Jan-Michael Rasimus, Leiter des Eye Tracking-Labors der DHBW Karlsruhe
Source: Jenny Habermehl
Copyright: DHBW KA//J. Habermehl
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).