idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
18.06.2024 11:19

Deepfakes: Neue Studie zeigt Chancen und Risiken für Politik, Wirtschaft und Gesellschaft auf

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

    Eine neue Studie des Fraunhofer ISI im Auftrag von TA-SWISS widmet sich dem Themenkomplex »Deepfakes«: Dabei wurde zunächst der technologische und forschungsseitige Stand mit Blick auf Deepfakes zusammengetragen und deren Wahrnehmung in der Schweizer Bevölkerung untersucht. Darüber hinaus analysierte die Studie mögliche Auswirkungen im Journalismus, Recht, Politik und Wirtschaft und leitet daraus Handlungsempfehlungen für diese Bereiche ab.

    Dass »Deepfake«-Technologien künftig einen festen Platz in der Alltagskultur haben dürften, stellt die Studie »Deepfakes und manipulierte Realitäten« gleich zu Beginn ihres Fazits klar und spricht mit Blick auf die täuschend echten Fälschungen in Audio- oder Videoform von einer in Zukunft »veränderten medialen Realität«. Allerdings kommen Deepfakes bzw. »synthetische Medien« momentan noch relativ selten vor, weshalb die Studie zunächst über den aktuellen technologischen Stand von Deepfake-Technologien aufklärt und den Wissenstand hierzu in der Schweizer Bevölkerung näher untersucht.

    Erstellung von Deepfake-Inhalten ist bereits heute möglich

    Die technische Herstellung von Deepfakes hat in den vergangenen Jahren beachtliche Fortschritte gemacht und dürfte sich in den kommenden Jahren rasant verbessern. So ist schon heute eine breite Palette an Deepfake-Inhalten mittels KI-basierter Text-, Bild- oder Audiogeneratoren herstellbar – vorausgesetzt ausreichendes Datenmaterial (zum Beispiel Sprachsamples oder Gesichtsfotos) und genügend Computerleistung sind vorhanden. Damit lassen sich dann Sprechweise, Gesichtsausdruck und sogar Körperbewegungen eines Menschen nachahmen. Deepfake-Audioinhalte mit hoher Qualität sind auch aktuell schon mit vergleichsweise geringem Aufwand produzierbar. Die Erstellung von Deepfake-Videos ist heute noch mit größerem Aufwand verbunden – rasante Fortschritte in der Entwicklung von KI-Videogeneratoren werden künftig jedoch auch die einfache Erstellung von glaubwürdigen Deepfake-Videos ermöglichen.

    Mittels einer repräsentativen Befragung von über 1.300 Personen untersuchte die Studie, wie die Schweizer Bevölkerung Deepfakes wahrnimmt, welche Erfahrungen sie hiermit sammelte und wie sie Chancen und Risiken von Deepfake-Technologien beurteilt. Die Studienergebnisse zeigen, dass »Deepfake« für viele der Befragten ein noch unbekannter Begriff ist – lediglich etwa die Hälfte hat schon davon gehört oder bereits selbst Deepfakes gesehen. Nur eine sehr kleine Minderheit konnte bereits Erfahrungen mit dem Erstellen (2%) und Verbreiten (3%) von Deepfakes sammeln. Ein Versuch im Rahmen der Studie verdeutlichte, dass die befragten Personen Deepfakes kaum von realen Videos unterscheiden konnten, insbesondere dann nicht, wenn diese von guter bis sehr guter Qualität waren. Auch assoziierten die befragten Personen Deepfakes stark mit Risiken und weniger mit Chancen. Allerdings bestimmte die gewählte Begrifflichkeit auch die Richtung des Diskurses: War von »synthetischen Medien« die Rede, fielen die Bewertungen durch die Befragten positiver aus als wenn von »Deepfakes« die Rede war.

    Deepfakes werden in erster Linie als Risiko betrachtet

    Weiterhin untersuchte die Studie auch die aktuelle und zukünftige Rolle von Deepfakes im Justizwesen, Journalismus, in der Politik sowie in der Wirtschaft, wobei hier mit Vertreter:innen der jeweiligen Bereiche Expert:innen-Interviews und Umfragen geführt oder Literaturrecherchen durchgeführt wurden. Im Journalismus und in der Politik werden Deepfakes in erster Linie als Risiko betrachtet und häufig auch dem Themenkomplex Desinformation zugeordnet. Die interviewten Journalist:innen betonten besonders die Wichtigkeit einer Sensibilisierung des Publikums für Deepfakes sowie die Notwendigkeit der Wissensvermittlung zur Überprüfung von Inhalten und ihrer Echtheit. Schweizer Parlamentarier:innen und Angehörige der Bundesverwaltung äußerten in einer separaten Umfrage die Sorge, dass Deepfakes negative Auswirkungen auf die Funktionsträger:innen selbst, die Demokratie und die politischen Institutionen nehmen könnten und es gegenwärtig nur selten konkrete Schutzmaßnahmen gibt.

    Dass Deepfakes aber mehr als nur Risiko und Desinformation sein können, zeigen die Analysen zu den Bereichen Recht und Wirtschaft: Während einige Anwendungsfälle von Deepfake-Technologien klar ins rechtlich Unerlaubte fallen, sind Deepfakes in anderen Fällen von der Meinungs-, Informations- und Kunstfreiheit oder dem Urheberrecht geschützt. Insbesondere beim Blick auf den Einsatz von Deepfake-Technologien in der Wirtschaft macht die Studie deutlich, dass diese auch enormes kreatives und ökonomisches Potenzial besitzen. Dennoch sehen die befragten Personen aus der Wirtschaft durchaus die Gefahr, die von Deepfakes ausgehen und weisen auf Einsatzmöglichkeiten im Bereich der Wirtschaftskriminalität wie Identitätsbetrug und Identitätsdiebstahl, Rufschädigung von Unternehmen, Täuschung von Mitarbeitenden oder Einsatzzwecke im Rahmen der Wirtschafts- und Industriespionage hin.

    Studie benennt vier zentrale Empfehlungen

    Dr. Murat Karaboga, Autor der Deepfake-Studie am Fraunhofer ISI, leitet die folgenden Handlungsempfehlungen aus der Studie ab: »Unsere Studie zeigt, dass zur Adressierung der durch Deepfakes verursachten oder verstärkten Herausforderungen eine Verknüpfung unterschiedlicher Maßnahmen erforderlich ist. Dabei müssen Staat, Bevölkerung, Organisationen sowie Medien Hand in Hand vorgehen. Eine erste Empfehlung unserer Studie lautet daher, dass das Vorantreiben der staatlichen Bemühungen zur Plattformregulierung, die auch eine Löschung oder Sperrung gemeldeter Deepfakes sowie ein Meldesystem rechtswidriger Inhalte inklusive entsprechender Transparenzvorgaben umfassen, unerlässlich für einen nachhaltigen Umgang mit Deepfake-Technologien in der Schweiz sind. Zweitens sollte die Selbstverantwortung von Bürgerinnen und Bürgern durch entsprechende Bildungsangebote verbessert werden, wobei der Unterstützung von Opferberatungsstellen und der Förderung und Vermittlung von Medienkompetenz eine besondere Rolle zukommt. Drittens sollten sich Organisationen in allen gesellschaftlichen und wirtschaftlichen Bereichen auf die zunehmende Allgegenwart von Deepfakes vorbereiten und etwa interne Risikoabschätzungen vornehmen und präventive sowie reaktive Maßnahmen eruieren. Eine vierte Empfehlung zielt auf den Journalismus ab, der durch das Hochhalten journalistischer Standards zur besseren Erkennung von Deepfakes und ihrer unmittelbaren Aufklärung der Bevölkerung über gefälschte Inhalte beitragen kann. Wichtig ist schließlich auch: Angesichts der enormen Geschwindigkeit der technologischen Weiterentwicklung sollten sich die Politik, Wirtschaft und Gesellschaft dieser Dynamik bewusst werden und darauf einstellen, neue Entwicklungen zu erkennen und mit adäquaten weiteren Schritten und Maßnahmen zu reagieren.«


    Wissenschaftliche Ansprechpartner:

    Dr. Murat Karaboga
    Wissenschaftlicher Mitarbeiter am Fraunhofer ISI
    Telefon +49 721 6809-453
    E-Mail: murat.karaboga@isi.fraunhofer.de

    Dr. Michael Friedewald
    Leiter des Geschäftsfelds Informations- und Kommunikationstechniken am Fraunhofer ISI
    Telefon +49 721 6809-146
    E-Mail: michael.friedewald@isi.fraunhofer.de


    Originalpublikation:

    »Deepfakes und manipulierte Realitäten - Technologiefolgenabschätzung und Handlungsempfehlungen für die Schweiz«:https://zenodo.org/records/11643644

    »Augen und Ohren auf dem Prüfstand - Kurzfassung der Studie von TA-SWISS «Deepfakes und manipulierte Realitäten»« https://zenodo.org/records/11643843


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten, Wirtschaftsvertreter, Wissenschaftler, jedermann
    Gesellschaft, Informationstechnik, Medien- und Kommunikationswissenschaften, Politik, Wirtschaft
    überregional
    Forschungs- / Wissenstransfer, Forschungsergebnisse
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).