idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
18.06.2025 11:53

Licht ins Dunkel: „LightShed“ umgeht bekannteste Schutzmechanismen gegen KI-generierte Kunst

Silke Paradowski Science Communication Centre - Abteilung Kommunikation
Technische Universität Darmstadt

    Darmstadt, 18. Juni 2025: Künstler:innen haben ein Interesse daran, ihre im Internet auffindbaren Kunstwerke davor zu schützen, dass KI-Modelle sie als Trainingsdaten verwenden und dadurch lernen, Kunststile täuschend echt zu imitieren. Moderne Bildschutzwerkzeuge versprechen Schutz davor. Doch Forschende der TU Darmstadt, der University of Cambridge und der University of Texas at San Antonio haben nun gezeigt, dass sich dieser umgehen lässt – ein Weckruf für die Branche.

    Die Wissenschafter:innen haben mit „LightShed“ eine leistungsstarke neue Methode vorgestellt, die in der Lage ist, moderne Bildschutzwerkzeuge zu umgehen. Diese Werkzeuge sollen Künstler:innen davor schützen, dass ihre Werke ohne Zustimmung zum Training von KI-Modellen verwendet werden. Zu den bekanntesten darunter zählen „Glaze“ und „NightShade“, die zusammen bereits über 8,8 Millionen Mal heruntergeladen wurden und in prominenten Medien wie der New York Times, dem US-Rundfunksyndikat National Public Radio (NPR) und beim World Economic Forum vorgestellt wurden. Besonders beliebt sind sie bei digital arbeitenden Künstler:innen, die verhindern wollen, dass KI-Modelle wie „Stable Diffusion“ ihre individuellen Stile imitieren.
    Seit März 2025 stehen diese Schutztools erneut im Rampenlicht, als nämlich OpenAI eine Bildfunktion in ChatGPT einführte, mit der sich augenblicklich Kunstwerke „im Stil von Studio Ghibli“ – einem japanischen Zeichentrickfilmstudio – erzeugen ließen. Dies löste nicht nur eine Flut viraler Memes, sondern auch neue Debatten über Bildrechte aus. Juristische Expert:innen wiesen darauf hin, dass das Urheberrecht den konkreten Ausdruck, nicht jedoch den künstlerischen Stil schütze, was die Diskussion um Tools wie „Glaze“ und „NightShade“ erneut befeuerte.
    OpenAI kündigte zwar an, bestimmte Prompts zu blockieren, mit denen sich Kunststile lebender Künstler:innen imitieren lassen, doch wie aktuelle Gerichtsverfahren, etwa Getty Images gegen Stability AI, zeigen, ist nicht davon auszugehen, dass alle Anbieter sich gleichermaßen kooperativ zeigen.
    Zudem sind die Schutzmechanismen von digitalen Bildern nicht wasserdicht: Das Grundproblem bleibt bestehen, solange Bilder weiterhin frei im Netz abrufbar und somit für das Training von KI-Modellen verwendbar sind.
    Das von den Forschenden entwickelte „LightShed“ zeigt nun deutlich, dass auch fortgeschrittene Schutzmaßnahmen wie „Glaze“ und „NightShade“ kein verlässliches Mittel gegen das Training von KI-Modellen darstellen. Beide Tools arbeiten mit subtilen, für das menschliche Auge unsichtbaren, Verzerrungen, sogenannten „poisoning perturbations“, die in digitale Bilder eingebettet werden, um KI-Modelle beim Training gezielt zu stören:
    „Glaze“ verfolgt dabei einen passiven Ansatz und erschwert es dem Modell, stilistische Merkmale korrekt zu extrahieren.
    „NightShade“ geht einen Schritt weiter und sabotiert den Lernprozess aktiv, indem es das Modell dazu bringt, den Stil der Künstler:innen mit völlig anderen Konzepten zu verknüpfen.
    Während diese Tools für viele Kreative zu unverzichtbaren Hilfsmitteln geworden sind, offenbart „LightShed“, dass ihre Schutzwirkung möglicherweise überschätzt wurde. Die Methode kann versteckte Störungen erkennen, zurückentwickeln und entfernen, und die Bilder so wieder nutzbar für das Training generativer KI-Modelle machen.
    In experimentellen Tests konnte „LightShed“ die durch „NightShade“ geschützten Bilder mit einer Genauigkeit von 99,98 Prozent erkennen und die Schutzmaßnahmen erfolgreich entfernen.
    Trotz der aufgezeigten Schwachstellen betonen die Forschenden, dass es sich bei „LightShed“ nicht nur um einen Angriff, sondern um einen Weckruf handelt:
    „Wir sehen darin eine Chance, Schutzmechanismen gemeinsam weiterzuentwickeln“, so Professor Ahmad-Reza Sadeghi, der Leiter des System Security Lab an der TU Darmstadt. „Unser Ziel ist es, mit anderen Forschenden zu kooperieren und die künstlerische Community bei der Entwicklung robuster Schutzwerkzeuge gegen immer ausgefeiltere Angriffe zu unterstützen.“ Die Arbeit zeige deutlich den dringenden Bedarf nach widerstandsfähigeren, adaptiven Schutzmaßnahmen in der sich rasant entwickelnden Welt der KI-gestützten Kreativtechnologien. „LightShed“ biete dabei eine wichtige Grundlage für neue, künstler:innenzentrierte Schutzstrategien.
    Die Forschungsergebnisse werden auf der renommierten Sicherheitskonferenz USENIX Security 2025 in Seattle im August vorgestellt.

    MI-Nr. 26/2025, System Security Lab/bjb


    Originalpublikation:

    https://www.usenix.org/conference/usenixsecurity25/presentation/foerster


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten
    Informationstechnik, Kunst / Design
    überregional
    Forschungsergebnisse
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).