Wahlkampf in Zeiten der Täuschung
Wissenschaftler der DHBW Karlsruhe zeigt auf, wie Fake News und Deepfakes
das Urteilsvermögen beeinflussen
Im Superwahljahr findet Wahlkampf längst nicht mehr nur auf Plakaten, in
Talkshows oder auf Marktplätzen statt. Er läuft parallel auf dem
Smartphone: in Feeds, Messenger-Gruppen und Kommentarspalten. Genau dort
häufen sich irreführende Meldungen, manipulierte Bilder und immer öfter
auch KI-generierte Inhalte.
Das Gefährliche daran: Solche Fälschungen
müssen nicht perfekt sein, um zu wirken. Oft genügt „gut genug“, wenn
Kontext und Timing passen. Ein Clip wird kurz vor einer Debatte
verbreitet, ein Screenshot taucht auf, wenn die Emotionen ohnehin
hochkochen, eine angebliche „Enthüllung“ landet zu später Stunde im
Gruppenchat und wird reflexartig weitergeleitet.
Hinzu kommt ein Effekt, der noch gravierender ist als einzelne
Falschmeldungen: Vertrauensverlust. Wenn Deepfakes möglich sind, entsteht
schnell ein doppelter Zweifel. Fake könnte echt sein. Echt könnte Fake
sein. Wer diesen Eindruck verinnerlicht, zieht sich entweder ganz zurück
(„Man weiß ja gar nichts mehr“) oder klammert sich umso stärker an das,
was vertraut wirkt. Sei es etwa die eigene „Bubble“ oder besonders laute
Erzählungen. Genau diese Unsicherheit kann jedoch die demokratische
Meinungsbildung beeinträchtigen, weil sie Diskussionen vergiftet und die
Bereitschaft senkt, sich überhaupt noch auf Fakten zu einigen.
Warum sind wir dafür so anfällig? „Nicht, weil Menschen weniger
intelligent oder zu leichtgläubig wären, sondern weil unser Gehirn sehr
effizient funktioniert“, ordnet Jan Michael Rasimus, Leiter des Eye
Tracking-Labors der DHBW Karlsruhe, den Sachverhalt ein. Es nutzt
Denkabkürzungen, sogenannte Heuristiken. „Damit sparen wir Energie und
können im Alltag schnell entscheiden. Das ist grundsätzlich sinnvoll. Im
digitalen Wahlkampf werden diese Abkürzungen jedoch mitunter auch durch
entsprechende Inhalte bewusst angesprochen und ausgenutzt.“
Ein paar typische Mechanismen lassen sich leicht beobachten:
Der Negativity Bias sorgt dafür, dass Negatives unsere Aufmerksamkeit
stärker bindet als Sachinformationen. Ein Skandal zieht den Blick auf
sich, die nüchterne Einordnung wird übersehen. Der Social Proof wirkt,
wenn viele liken, kommentieren oder teilen. Dann erscheint ein Inhalt
schnell plausibel, weil er bereits in der eigenen „Bubble“ zirkuliert. Der
Confirmation Bias macht uns selektiv. Was zum eigenen Weltbild passt,
akzeptieren wir schneller, was nicht passt, prüfen wir strenger oder
lehnen es reflexhaft ab. Und der Illusory-Truth-Effekt verstärkt sich
durch Wiederholung: Was wir mehrfach sehen, fühlt sich vertraut an.
Vertrautheit wird unbewusst oft mit Plausibilität verwechselt.
Die Anfälligkeit wird im Wahlkampf gezielt getriggert: durch Angst,
Empörung, scheinbare Mehrheiten, personalisierte Algorithmen und
Wiederholung. „In unseren Eye-Tracking-Analysen wird sichtbar, wie stark
die Wahrnehmung durch Reize gelenkt wird. Dramatische Überschriften,
grelle Farben, starke Bilder und bestimmte Signalwörter ziehen
Aufmerksamkeit fast automatisch an. Quelle und Kontext landen oft erst
viel später im Blick, manchmal gar nicht. Je emotionaler ein Inhalt
gestaltet ist, desto eher übernimmt der Autopilot. Wer in diesem Moment
teilt, reagiert häufig nicht auf Fakten, sondern auf ein Gefühl“, gibt
Rasimus zu bedenken. Ein alltagstauglicher Tipp: „Bevor Sie teilen oder
weiterleiten, fünf Sekunden bewusst ein- und auszuatmen. Außerdem hilft
die PRÜF-Methode, eine einfache Routine, die wir auch regelmäßig in
Workshops vermitteln:“
PRÜF: der schnelle Faktencheck gegen Fake News
P: Pause machen und Gehirn einschalten. Halten Sie inne und denken Sie
kritisch.
R: Reflektiere die Veröffentlichung. Hinterfragen Sie Quelle, Absicht und
Gestaltung.
Ü: Überblick zur Berichterstattung. Suchen Sie nach unabhängigen, seriösen
Quellen.
F: Finde den Ursprung. Verfolgen Sie die Nachricht zum Ausgangspunkt
zurück.
Wenn einer der Punkte unklar bleibt, sollte die Nachricht auch nicht
weiterverbreitet werden.
