Darmstadt, 18. Juni 2025: Künstler:innen haben ein Interesse daran, ihre im Internet auffindbaren Kunstwerke davor zu schützen, dass KI-Modelle sie als Trainingsdaten verwenden und dadurch lernen, Kunststile täuschend echt zu imitieren. Moderne Bildschutzwerkzeuge versprechen Schutz davor. Doch Forschende der TU Darmstadt, der University of Cambridge und der University of Texas at San Antonio haben nun gezeigt, dass sich dieser umgehen lässt – ein Weckruf für die Branche.
Die Wissenschafter:innen haben mit „LightShed“ eine leistungsstarke neue Methode vorgestellt, die in der Lage ist, moderne Bildschutzwerkzeuge zu umgehen. Diese Werkzeuge sollen Künstler:innen davor schützen, dass ihre Werke ohne Zustimmung zum Training von KI-Modellen verwendet werden. Zu den bekanntesten darunter zählen „Glaze“ und „NightShade“, die zusammen bereits über 8,8 Millionen Mal heruntergeladen wurden und in prominenten Medien wie der New York Times, dem US-Rundfunksyndikat National Public Radio (NPR) und beim World Economic Forum vorgestellt wurden. Besonders beliebt sind sie bei digital arbeitenden Künstler:innen, die verhindern wollen, dass KI-Modelle wie „Stable Diffusion“ ihre individuellen Stile imitieren.
Seit März 2025 stehen diese Schutztools erneut im Rampenlicht, als nämlich OpenAI eine Bildfunktion in ChatGPT einführte, mit der sich augenblicklich Kunstwerke „im Stil von Studio Ghibli“ – einem japanischen Zeichentrickfilmstudio – erzeugen ließen. Dies löste nicht nur eine Flut viraler Memes, sondern auch neue Debatten über Bildrechte aus. Juristische Expert:innen wiesen darauf hin, dass das Urheberrecht den konkreten Ausdruck, nicht jedoch den künstlerischen Stil schütze, was die Diskussion um Tools wie „Glaze“ und „NightShade“ erneut befeuerte.
OpenAI kündigte zwar an, bestimmte Prompts zu blockieren, mit denen sich Kunststile lebender Künstler:innen imitieren lassen, doch wie aktuelle Gerichtsverfahren, etwa Getty Images gegen Stability AI, zeigen, ist nicht davon auszugehen, dass alle Anbieter sich gleichermaßen kooperativ zeigen.
Zudem sind die Schutzmechanismen von digitalen Bildern nicht wasserdicht: Das Grundproblem bleibt bestehen, solange Bilder weiterhin frei im Netz abrufbar und somit für das Training von KI-Modellen verwendbar sind.
Das von den Forschenden entwickelte „LightShed“ zeigt nun deutlich, dass auch fortgeschrittene Schutzmaßnahmen wie „Glaze“ und „NightShade“ kein verlässliches Mittel gegen das Training von KI-Modellen darstellen. Beide Tools arbeiten mit subtilen, für das menschliche Auge unsichtbaren, Verzerrungen, sogenannten „poisoning perturbations“, die in digitale Bilder eingebettet werden, um KI-Modelle beim Training gezielt zu stören:
„Glaze“ verfolgt dabei einen passiven Ansatz und erschwert es dem Modell, stilistische Merkmale korrekt zu extrahieren.
„NightShade“ geht einen Schritt weiter und sabotiert den Lernprozess aktiv, indem es das Modell dazu bringt, den Stil der Künstler:innen mit völlig anderen Konzepten zu verknüpfen.
Während diese Tools für viele Kreative zu unverzichtbaren Hilfsmitteln geworden sind, offenbart „LightShed“, dass ihre Schutzwirkung möglicherweise überschätzt wurde. Die Methode kann versteckte Störungen erkennen, zurückentwickeln und entfernen, und die Bilder so wieder nutzbar für das Training generativer KI-Modelle machen.
In experimentellen Tests konnte „LightShed“ die durch „NightShade“ geschützten Bilder mit einer Genauigkeit von 99,98 Prozent erkennen und die Schutzmaßnahmen erfolgreich entfernen.
Trotz der aufgezeigten Schwachstellen betonen die Forschenden, dass es sich bei „LightShed“ nicht nur um einen Angriff, sondern um einen Weckruf handelt:
„Wir sehen darin eine Chance, Schutzmechanismen gemeinsam weiterzuentwickeln“, so Professor Ahmad-Reza Sadeghi, der Leiter des System Security Lab an der TU Darmstadt. „Unser Ziel ist es, mit anderen Forschenden zu kooperieren und die künstlerische Community bei der Entwicklung robuster Schutzwerkzeuge gegen immer ausgefeiltere Angriffe zu unterstützen.“ Die Arbeit zeige deutlich den dringenden Bedarf nach widerstandsfähigeren, adaptiven Schutzmaßnahmen in der sich rasant entwickelnden Welt der KI-gestützten Kreativtechnologien. „LightShed“ biete dabei eine wichtige Grundlage für neue, künstler:innenzentrierte Schutzstrategien.
Die Forschungsergebnisse werden auf der renommierten Sicherheitskonferenz USENIX Security 2025 in Seattle im August vorgestellt.
MI-Nr. 26/2025, System Security Lab/bjb
https://www.usenix.org/conference/usenixsecurity25/presentation/foerster
Criteria of this press release:
Journalists
Art / design, Information technology
transregional, national
Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).