idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
07.08.2024 11:37

KI-Projekt der Hochschule Coburg entlarvt Populismus und Propaganda

Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg

    Forschende der Hochschule Coburg haben ein Tool entwickelt, das mithilfe von KI verfälschte und einseitige Informationen in Online-Nachrichten anzeigt.

    Als „Bias“ wird die verfälschte mediale Verzerrung von Informationen bezeichnet. Das sind nicht immer absichtlich propagandistische Texte, sondern auch unbewusst einseitige Formulierungen. Das Thema ist wichtig, denn Media-Bias beeinflusst unser Kaufverhalten genauso wie Wahlergebnisse. „Jeder informiert sich heute auf seinen eigenen Kanälen“, sagt Prof. Dr. Jochen L. Leidner. „Die Informationen sind verstreut und die Leute sind nicht dazu ausgebildet, zu hinterfragen, wo Inhalte herkommen und wer Interesse daran hat, dass sie dies oder jenes glauben“. Der Computerlinguist hat eine Forschungsprofessur an der Hochschule Coburg inne, war vorher Forschungsdirektor bei der weltweiten Nachrichtenagentur Reuters in London und hat sein Interesse an Medien mit nach Oberfranken gebracht: Er unterrichtet an der Hochschule Coburg und als Gast an der Universität Sheffield zum Beispiel den interdisziplinären Kurs „Media Manipulation, Propaganda and Fake News“.

    Fakten statt Fake News

    Leidner ist Gründungsmitglied des neuen Forschungsinstituts „Coburg University Research Center for Responsible Artificial Intelligence” (CRAI) der Hochschule Coburg. In diesem Rahmen hat er gemeinsam mit seinem wissenschaftlichen Mitarbeiter Tim Menzner ein System entwickelt, das in der Lage ist, 27 Arten von medialer Verzerrung zu erkennen und voneinander zu unterscheiden. Dieser sogenannte „BiasScanner“ wendet maschinelles Lernen an, und kann mithilfe eines sogenannten „großen Sprachmodells“ basierend auf einem neuronalen Netz beispielsweise persönliche Angriffe auf Minderheiten identifizieren, kommerziellen Bias, bei dem die Textstelle wirtschaftliche Interessen bedient oder auch den „Kausales-Missverständnis-Bias“: Das ist der Fall, wenn eine Ursache-Wirkung-Beziehung zwischen zwei Variablen angenommen wird, ohne dass ausreichende Beweise vorliegen. Erkannt wird auch der weit verbreitete „Ad-Hominem-Bias“. Dabei wird nicht auf den Inhalt eines Arguments eingegangen, sondern auf denjenigen, der das Argument vorbringt – Charakter, Motive oder andere Eigenschaften der Person werden angegriffen. Also zum Beispiel etwas wie: „Von anderen bessere Klimapolitik fordern, aber selbst mit dem Flieger in den Urlaub jetten: Die reinste Heuchelei!“

    Eine einzigartige KI-Anwendung für Textanalysen

    Häufig werden in Online-Medien Fakten und Meinung vermischt. Bei der Masse an Informationen ist es für Menschen unmöglich, das immer kritisch zu prüfen. Es gibt bereits verschiedene Versuche, technische Lösungen dafür zu entwickeln. Dabei wird zum Beispiel die Tendenz eines ganzen Textes im Vergleich zu anderen Texten analysiert. Oder aus Kommentaren von Nutzerinnen und Nutzern wird eine Tendenz geschlussfolgert. „Das sieht auf den ersten Blick ähnlich aus“, sagt Leidner, „aber es ist etwas völlig anderes.“ Der BiasScanner der Coburger Wissenschaftler wendet Methoden der Textanalyse völlig wertfrei auf jeden Satz einzeln an und prüft, welche der 27 Bias-Unterkategorien, auf die das KI-Tool trainiert wurde, auf einen Satz zutreffen – und ob überhaupt eine vorkommt. Das System markiert Bias im Text farblich und erzeugt erklärende Begründungen für jede automatische Entscheidung. Gleichzeitig wird die Stärke der Beeinflussung auf einer Skala angezeigt.

    Partnerinnen und Partner gesucht: So geht es mit dem BiasScanner weiter
    Die Software unterstützt mehrere Sprachen und kann in einer Demo-Version unter biasscanner.org ausprobiert werden. Ziel ist, dass möglichst viele Menschen sie nutzen können, um manipulative Aussagen im Internet zu erkennen und besser zu verstehen. Der BiasScanner ist inzwischen auch schon als Add-on für den ersten Browser erhältlich und die Coburger Forschungsgruppe sucht Unterstützung, um das Projekt weiter voranzutreiben und zu entwickeln. Gefragt sind Fördermittel, Spenden sowie Forschungskollaborationen. Aber auch die Bevölkerung kann dabei helfen, die Qualität der Ergebnisse zu verbessern. Leidner erklärt: „Wir haben eine Daten-Spende-Funktion eingebaut. Wenn jemand spannende Beispiele hat, bei denen der BiasScanner eine Manipulation noch nicht entdeckt, kann er solche Artikel auf Knopfdruck für die Forschung spenden.“

    Text: Natalie Schalk

    7. August


    Bilder

    Prof. Dr. Jochen L. Leidner (rechts) und sein wissenschaftlicher Mitarbeiter Tim Menzner (links) haben den „BiasScanner“ an der Hochschule Coburg entwickelt. Das System ist in der Lage, 27 Arten von medialer Verzerrung zu erkennen und zu unterscheiden.
    Prof. Dr. Jochen L. Leidner (rechts) und sein wissenschaftlicher Mitarbeiter Tim Menzner (links) hab ...
    Natalie Schalk
    Hochschule Coburg


    Merkmale dieser Pressemitteilung:
    Journalisten, Lehrer/Schüler, Studierende, Wirtschaftsvertreter, Wissenschaftler, jedermann
    Gesellschaft, Informationstechnik, Medien- und Kommunikationswissenschaften, Politik, Sprache / Literatur
    überregional
    Buntes aus der Wissenschaft, Forschungs- / Wissenstransfer
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).