Forscher*innen entwickeln zusammen mit der Rechercheplattform CORRECTIV KI-gestützte Assistenztools, um engagierten Bürger*innen zu ermöglichen, schnell und effizient selbst Falschinformationen aufzudecken
Falschinformationen, Desinformationen und Hetze nehmen im Internet durch die rapide Entwicklung Künstlicher Intelligenz stark zu und werden immer mehr zu einer Gefahr für die Demokratie. Die Hoffnung, dass Methoden der Künstlichen Intelligenz dem allein Abhilfe schaffen könnten, indem sie automatisiert Falschinformationen zu identifizieren lernen, hat sich jedoch als trügerisch erwiesen: Maschinell gelernte Modelle können auch heute nicht ausreichend von ihren Trainingsdaten – die notwendigerweise die Vergangenheit abbilden – auf die immer neuen Sachverhalte und Begriffe der sich schnell entwickelnden Medienwelt verallgemeinern. Daher lässt sich Desinformation allein mithilfe Künstlicher Intelligenz auch weiter nicht verlässlich genug von wahren Aussagen unterscheiden. So hat das Fakten-Checken ein fundamentales Problem: Weder steht die journalistische Arbeitsleistung zur Verfügung, die für ein gründliches Fakten-Checken der zunehmenden Masse an Desinformation erforderlich wäre, noch sind maschinelle Systeme vorhanden oder stehen in Aussicht, mit denen sich das Problem grundsätzlich lösen ließe.
Mensch-Maschine-Kollaboration
Das vom Bundesministerium für Bildung und Forschung geförderte Projekt „KI-unterstütztes Assistenzsystem für die Crowdsourcing-basierte Erkennung von über digitale Plattformen verbreiteter Desinformation (noFake)" reagiert auf diese Herausforderungen, indem es die Kompetenzen von Mensch und Maschine miteinander verknüpft. In der neuen Faktencheck-Community „CORRECTIV.Faktenforum“ des gemeinnützigen Medienhauses CORRECTIV, die seit Jahresbeginn schrittweise für die Beteiligung durch interessierte Nutzer*innen geöffnet wird, soll die Idee des Bürger*innenjournalismus im Netz hierfür ein Zuhause finden. Hier werden Bürger*innen in die Lage versetzt, sich an der Überprüfung von Tatsachenbehauptungen zu beteiligen, und sollen dabei durch die KI-Tools der noFake-Projektpartner*innen aktiv unterstützt werden.
Stärken von KI nutzen
Unter der Leitung von Prof. Dr. Dorothea Kolossa von der TU Berlin werden hierzu innovative maschinelle Lernverfahren zur Mensch-Maschine-Kollaboration entwickelt. Ihr Forscher*innenteam konzentriert sich dabei auf multi-modale Inhalte, unter anderem durch die Erkennung von künstlich generierten Bildern und Texten, oder die Suche nach existierenden Faktenchecks zu neuen Meldungen. Das Team hat unter anderem ein System entwickelt, das nicht nur mit einer Genauigkeit von 99,5% erkennen kann, welche Bilder durch die aktuellen Diffusionsmodelle wie Stable Diffusion oder Midjourney computergeneriert und welche authentisch sind, sondern auch zwischen verschiedenen Bildgenerierungsmodellen klar unterscheiden kann. Diese Tools werden nun schrittweise im CORRECTIV.Faktenforum implementiert und sollen dort, zusammen mit Erklärungen über die jeweiligen Entscheidungsgrundlagen, den Bürgerjournalist*innen für deren Checks zur Verfügung stehen. So lernen sie, mögliche Falschinformationen mit Hilfe von KI und eigener Recherche zu überprüfen. Das ist laut Dorothea Kolossa dringend nötig, denn mit den aktuellen Entwicklungen in der Künstlichen Intelligenz drohe gerade mit generativen Modellen wie ChatGPT für Text und Stable Diffusion für Bilder eine Flut von Falschinformationen. Das Projekt noFake möchte hingegen die Stärken von KI nutzen, um das Ungleichgewicht zwischen der einfachen und schnellen Generierung von Desinformation und dem Aufwand in der Erstellung zuverlässiger Informationen wieder auszugleichen.
Medienkompetenz von Bürger*innen fördern
„Besonders wichtig finde ich dabei unsere Idee, KI zu nutzen, um die Menschen selbst in ihrer Fähigkeit zur Erkennung von Falschinformationen zu stärken. Wir möchten so die Mündigkeit und Medienkompetenz von Bürger*innen und Bürgerjournalist*innen fördern, ganz im Gegensatz zu vielen aktuellen Ansätzen, menschliche Fähigkeiten durch automatisierte Tools zu ersetzen. Die KI als ein Werkzeug zum Erkenntnisgewinn ist nicht nur hier, sondern auch in vielen anderen Anwendungen, wie beispielsweise in der Medizin, der aus meiner Sicht richtige und verantwortungsvolle Weg in eine Zukunft mit immer stärkeren Werkzeugen des Maschinellen Lernens“, so Dorothea Kolossa, deren Expertise im Bereich des Natural Language Processing in den vergangenen Jahren mehrfach ausgezeichnet wurde. Für das noFake-Projekt kooperiert sie mit Prof. Dr. Tatjana Scheffler und ihrem Team der forensischen Linguistik der Ruhr-Universität Bochum sowie mit einem interdisziplinären Konsortium aus Journalist*innen, Fact-Checker*innen und Softwareentwickler*innen der CORRECTIV gGmbH. Expert*innen des Medien- und Internetrechts der TU Dortmund unter der Leitung von Prof. Dr. Tobias Gostomzyk gehören ebenfalls zum Projektverbund.
Debattenkultur in der Gesellschaft stärken
Das noFake-Team entwickelt zudem Lehrmaterialien und Lerntools, die Bürger*innen in die Lage versetzen, kollaborativ mit Journalist*innen, mit anderen Laien, und mit den entwickelten KI-gestützten Assistenztools zusammenzuarbeiten. So werden die Bürger*innen mit den Mechanismen journalistischer Arbeit vertraut, um die Medienkompetenz und Debattenkultur in der Gesellschaft zu stärken. „Verantwortungsbewussten und engagierten Bürger*innen die Möglichkeit zu geben, sich an der Überprüfung von Fakten zu beteiligen und zu lernen, wie man es richtig macht, ist meiner Meinung nach ein großartiges Rezept, um die Zukunft der Demokratie zu bewahren“, sagt Veronika Solopova, wissenschaftliche Mitarbeiterin im noFake-Projekt der TU Berlin. „Es ist an der Zeit, dass wir alle verstehen, dass die Qualität unserer Informations-Ökosphäre in unserer Verantwortung liegt. Zu akzeptieren, dass ´alternative Fakten` und ´Halbwahrheiten` die Medien und die politische Rhetorik zunehmend prägen, ist ein direkter Weg, alles zu verlieren, was uns lieb ist.“
Weitere Informationen auf der Webseite vom CORRECTIV.Faktenforum: https://www.faktenforum.org/
Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Dorothea Kolossa
Elektronische Systeme der Medizintechnik der TU Berlin
Tel.: +49 (0)30-314-77019
E-Mail: dorothea.kolossa@tu-berlin.de
Criteria of this press release:
Journalists
Information technology, Media and communication sciences, Social studies, Teaching / education
transregional, national
Research projects, Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).