idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
07/16/2020 09:30

Fake-Bilder anhand von Frequenzanalysen erkennen

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

    Sie wirken täuschend echt, sind aber von Computern gemacht: Sogenannte Deep-Fake-Bilder werden mithilfe von maschinellem Lernen generiert und sind für menschliche Betrachter kaum von realen Fotos zu unterscheiden. Forscherinnen und Forscher des Horst-Görtz-Instituts für IT-Sicherheit der Ruhr-Universität Bochum und des Exzellenzclusters „Cyber Security in the Age of Large-Scale Adversaries“ (Casa) haben eine neue Methode entwickelt, mit der sich Deep-Fake-Bilder effizient identifizieren lassen. Dazu analysieren sie die Motive im Frequenzbereich, eine klassische Technik der digitalen Signalverarbeitung.

    Über das Verfahren berichtete das Team am 15. Juli 2020 auf der International Conference on Machine Learning (ICML), einer der führenden Konferenzen im Bereich des maschinellen Lernens. Ihren Code stellen die Forscherinnen und Forscher unter https://github.com/RUB-SysSec/GANDCTAnalysis frei zur Verfügung, damit andere Gruppen die Ergebnisse reproduzieren können.

    Zusammenspiel zweier Algorithmen führt zu neuen Bildern

    Deep-Fake-Bilder – eine Wortzusammensetzung aus den Begriffen „Deep Learning“ für maschinelles Lernen und „Fake“ – werden mithilfe von Computermodellen erzeugt, sogenannten Generative Adversarial Networks, kurz GANs. Darin arbeiten zwei Algorithmen zusammen: Der erste Algorithmus erstellt basierend auf gewissen Inputdaten zufällige Bilder. Der zweite Algorithmus testet, ob es sich bei dem Bild um eine Fälschung handelt oder nicht. Enttarnt er das Bild als Fake, gibt er dem ersten Algorithmus das Kommando, das Bild zu überarbeiten – so oft, bis er es nicht mehr als Fälschung erkennt.

    Diese Technik hat in den vergangenen Jahren dazu beigetragen, dass Deep-Fake-Bilder immer authentischer geworden sind. Auf der Website www.whichfaceisreal.com können User selbst testen, ob sie Fake-Motive von Originalfotos unterscheiden können. „Gerade in Zeiten von Fake News kann es ein Problem sein, wenn Nutzerinnen und Nutzer computergenierte Motive und Originale nicht auseinanderhalten können“, sagt Prof. Dr. Thorsten Holz vom Lehrstuhl für Systemsicherheit.

    Für ihre Analyse nutzten die Bochumer Wissenschaftlerinnen und Wissenschaftler die Datensätze, die auch der oben genannten Seite „Which face is real“ zugrunde liegen. In dem interdisziplinären Projekt kooperierten Joel Frank, Thorsten Eisenhofer und Thorsten Holz vom Lehrstuhl für Systemsicherheit mit Prof. Dr. Asja Fischer vom Lehrstuhl für Maschinelles Lernen sowie Lea Schönherr und Prof. Dr. Dorothea Kolossa von der Arbeitsgruppe für Kognitive Signalverarbeitung.

    Frequenzanalyse offenbart typische Artefakte

    Bisher wurden Deep-Fake-Bilder mit aufwendigen statistischen Verfahren untersucht. Die Bochumer Gruppe wählte einen anderen Ansatz, indem sie die Bilder mit der Diskreten Kosinustransformation in den Frequenzbereich umwandelte. Dabei wird das generierte Bild als Summe vieler verschiedener Kosinus-Funktionen ausgedrückt. Natürliche Bilder bestehen größtenteils aus niederfrequenten Funktionen.

    Die Analyse zeigte, dass von GANs generierte Bilder verschiedene Arten von Artefakten im hochfrequenten Bereich aufweisen. So wird in der Frequenzdarstellung von gefälschten Bildern beispielsweise eine typische Gitterstruktur sichtbar. „Unsere Experimente haben ergeben, dass diese Artefakte nicht nur bei GANs auftreten, sondern dass es sich um ein strukturelles Problem aller Deep-Learning-Algorithmen handelt“, erklärt Joel Frank. „Wir gehen davon aus, dass man anhand der in unserer Studie beschriebenen Artefakte immer erkennt, ob es sich um ein Deep-Fake-Bild handelt, das mit maschinellem Lernen erstellt wurde“, ergänzt Frank. „Die Frequenzanalyse ist somit ein effektiver Weg, computergenerierte Bilder automatisiert zu erkennen.“

    Vollständige Bildzeile zur Frequenzdarstellungs-Grafik siehe: https://news.rub.de/wissenschaft/2020-07-16-informationstechnik-fake-bilder-anha...


    Contact for scientific information:

    Joel Frank
    Lehrstuhl für Systemsicherheit
    Fakultät für Elektrotechnik und Informationstechnik
    Ruhr-Universität Bochum
    Tel.: +49 234 32 27814 (Sekretariat)
    E-Mail: joel.frank@rub.de


    Original publication:

    Joel Frank, Thorsten Eisenhofer, Lea Schönherr, Asja Fischer, Dorothea Kolossa, Thorsten Holz: Leveraging frequency analysis for deep fake image recognition, International Conference on Machine Learning (ICML), Virtuelle Konferenz, 2020, Online-Veröffentlichung


    Images

    Links Frequenzdarstellung eines realen Personenfotos, rechts eines computergenerierten Bildes mit typischem Artefakt (Gitterstruktur)
    Links Frequenzdarstellung eines realen Personenfotos, rechts eines computergenerierten Bildes mit ty ...

    © RUB, Lehrstuhl für Systemsicherheit

    Ein Teil des Bochumer Forschungsteams: Thorsten Holz, Lea Schönherr, Joel Frank und Thorsten Eisenhofer (von links)
    Ein Teil des Bochumer Forschungsteams: Thorsten Holz, Lea Schönherr, Joel Frank und Thorsten Eisenh ...
    RUB, Marquard
    © RUB, Marquard


    Criteria of this press release:
    Journalists
    Information technology
    transregional, national
    Research results, Scientific Publications
    German


     

    Links Frequenzdarstellung eines realen Personenfotos, rechts eines computergenerierten Bildes mit typischem Artefakt (Gitterstruktur)


    For download

    x

    Ein Teil des Bochumer Forschungsteams: Thorsten Holz, Lea Schönherr, Joel Frank und Thorsten Eisenhofer (von links)


    For download

    x

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).