Der Einfluss von Künstlicher Intelligenz (KI) auf demokratische Wahlen wie die vorgezogene Neuwahl zum Deutschen Bundestag am 23. Februar 2025 ist ein Thema von wachsender Bedeutung. Schließlich haben Anwendungen generativer KI wie Chatbots, Social-Media-Screenings oder Deepfake-Tools das Potenzial, den Wahlprozess ebenso zu unterstützen wie manipulativ zu untergraben. Zu solchen Anwendungen forschen am Karlsruher Institut für Technologie (KIT) Fachleute für IT-Sicherheit sowie für Technikfolgenabschätzung.
„In Deutschland ist der Einsatz von KI in Wahlkämpfen erst bei wenigen Parteien zu beobachten. Das internationale Superwahljahr 2024 mit Wahlen in mehr als 60 Ländern hat jedoch gezeigt, wo die Reise hingeht“, sagt Thorsten Strufe, Professor für praktische IT-Sicherheit am KIT sowie außerplanmäßiger Professor für Privatsphäre und Netzwerksicherheit an der TU Dresden. „Mit wachsender Verfügbarkeit von Sprachmodellen und Bild-Generatoren nimmt auch deren Verwendung zu – für legitime wie für fragwürdige Zwecke. Um Missbrauch zu verhindern, bedarf es technologischer und rechtlicher Maßnahmen, nicht zuletzt aber auch einer Stärkung individueller und gesellschaftlicher KI-Kompetenz.“
Ein Deepfake-Video von Bundeskanzler Olaf Scholz, in dem er ein Verbotsverfahren gegen die AfD ankündigt, ein KI-generiertes Audiodokument, auf dem eine slowakische Politikerin vermeintlich Korruption einräumt, Falschauskünfte der Suchmaschine Bing: Im beginnenden KI-Zeitalter ist die Klaviatur der Desinformation breit. Als Leiter der Forschungsgruppe Praktische IT-Sicherheit am KASTEL – Institut für Informationssicherheit und Verlässlichkeit des KIT ist Informatiker Strufe mit Fake-News und Desinformationskampagnen vertraut: „Die Generierung von falschen Inhalten ist inzwischen so gut, dass es selbst für Fachleute schwer ist, sie von echten Fotos oder Videos zu unterscheiden. Gezielt gewählt, können so Vorurteile einfach bedient und verstärkt werden. Der Effekt ist nachweisbar gefährlich, weil selbst eine anschließende Richtigstellung nur oberflächlich wahrgenommen wird, die scheinbare Bestätigung der Vorurteile aber unterbewusst weiterwirkt.“
Übermenschliche Feinarbeit – Wählerinnen und Wähler im KI-Visier
Auf der anderen Seite zeichnet sich ab, wie generative KI – also Künstliche Intelligenz, die mittels Deep Learning und neuronalen Netzwerken in der Lage ist, Inhalte, die von Menschen erstellten Inhalten ähneln, neu zu erstellen – Wahlkämpfe auf bislang nicht gekannte Weise fortentwickelt. Ein Beispiel sind sogenannte Targeting-Strategien wie die KI-Stimme „Ashley“, die im US-Präsidentschaftswahlkampf Tausende Menschen in wechselnden Sprachen und mit personalisierten Inhalten anrief, um für eine bestimmte Kandidatin zu werben. „Ein in diesem Kontext häufig übersehener Aspekt ist die gezielte Ausspielung von Inhalten an unterschiedliche Zielgruppen. Selbst wenn Sie Nachrichten vertrauenswürdiger Quellen angezeigt bekommen, entscheiden beispielsweise Meta oder X, welche der von diesen Medien veröffentlichten Nachrichten Ihnen angezeigt werden. Ihrem Eindruck nach ist die Auswahl neutral und die Quelle zuverlässig. Tatsächlich jedoch hat die unausgewogene Auswahl den erwünschten Effekt, dass Sie Vertrauen und Zuversicht verlieren oder Ressentiments aufbauen.“
Allgemein, unmittelbar, frei, gleich und geheim: Die fünf Wahlgrundsätze des Grundgesetzes zielen darauf ab, Wahlen wie die anstehende Bundestagswahl als grundlegende und gültige Repräsentation des Bevölkerungswillens zu sichern. „Ich denke, wir müssen die Techniken, aber gerade auch die psychologischen Mechanismen weit mehr als bisher erklären und ins Bewusstsein der Bevölkerung rücken“, plädiert Sicherheitsspezialist Strufe für Eingriffe auf technischer, gesellschaftlicher und rechtlicher Ebene, um die Meinungsbildung im Vorfeld von Wahlen vor der Manipulation durch generative KI zu schützen. „So werden Bürgerinnen und Bürger in die Lage versetzt, Kampagnen zu erkennen, zu durchschauen und auch in Diskussionen zu demaskieren. Gleichzeitig dürfen wir uns durch die neue globalpolitische Situation nicht ins Bockshorn jagen lassen, sondern müssen die gesetzlichen Möglichkeiten, die der europäische Rahmen bietet, mit Nachdruck nutzen.“
Justus Hartlieb, E-Mail: justus.hartlieb@kit.edu, Tel.: 0721 608-41155.
https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/Whitepap...
https://www.tab-beim-bundestag.de/downloads/epta/reports/EPTA_Report_2024_L%c3%a...
Merkmale dieser Pressemitteilung:
Journalisten
Gesellschaft, Informationstechnik, Politik
überregional
Forschungs- / Wissenstransfer
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).