Wenn KIs zu Künstlern werden, bleiben die eigentlichen Kunstschaffenden oft auf der Strecke. Neue Tools sollen dem nun entgegenwirken.

Foto: DerStandard/Pichler/Stable Diffusion

"Wir holen uns unser Mitspracherecht zurück", sagt Klara Ortiz, renommierte Illustratorin und Künstlerin, die bereits mit mehreren berühmten Studios wie Industrial Light & Magic und Marvel Film Studios zusammengearbeitet hat. "Diese Daten sind meine Kunst, das ist mein Leben. Es fühlt sich an, wie meine Identität." Was für viele eine unterhaltsame Spielerei ist, ist für andere existenzielle Lebensgrundlage. KI-basierte Kunstgeneratoren wie Midjourney oder Stable Diffusion haben zahlreiche Userinnen und User in den letzten Monaten selbst zu vermeintlichen Kunstschaffenden gemacht – mittels Eingabe simpler Begriffe wurde es für jedermann möglich, innerhalb von Sekunden personalisierte Bilder in verschiedensten Stilen anfertigen zu lassen. Für jene, die damit bisher ihren Lebensunterhalt verdienten, ist diese Entwicklung aber wenig erfreulich. Zwar werden ihre Werke oft zum Training der Computermodelle genutzt, finanziell bleiben die Urheberinnen und Urheber aber auf der Strecke.

Brotlose Kunst

KIs werden mit "fremden" Inhalten trainiert, sei es Text, Musik, oder Bilder. Viele Künstlerinnen und Künstler vermarkten ihre Werke online, da sie so größere Reichweite und Bekanntheit erzielen. Ist ein Bild aber erst einmal online, besteht die Gefahr, dass es von einer KI als Datenvorlage genutzt wird. Die KI erkennt und merkt sich den Stil eines Künstlers und kann dann – oft kostenlos und für unzählige User – Texte oder Bilder in dessen Stil anfertigen. Den Kunstschaffenden entgehen so wertvolle existenzsichernde Einnahmen während die Firmen hinter den populären KIs steigende Aktienkurse verzeichnen. Streng genommen handelt es sich in diesen Fällen nicht um Verletzung von Eigentumsrechten, da lediglich der Stil, nicht aber ganze Werke kopiert werden. Vielen Nutzern ist das egal: Sie freuen sich über die Bilder, für die weder Lizenzgebühren oder Auftragskosten anfallen, deren Inhalt sie selbst definieren und die sie innerhalb weniger Sekunden abrufen können. Kunstschaffende suchen daher nach Möglichkeiten, um ihr Werk zu schützen. Der rechtliche Rahmen muss erst geschaffen werden, da künstliche Intelligenz ein derart neues und vielseitiges Feld ist, dass die Rechtsprechung nicht mitkommt.

Glaze – ein unsichtbarer Überzug

Unter der Aufsicht von Professor Ben Zhao arbeitet ein Team von Informatikern der Universität Chicago nun an Tools, um die Urheberrechte der Künstlerinnen und Künstlern zu schützen – genaugenommen, um dem "Diebstahl" eines individuellen Stils durch KI-Modelle zu unterbinden. Ein solches Tool nennt sich "Glaze" – was so viel bedeutet wie "Glasur" oder "Überzug". Bei der Entwicklung wurden die Werke von über 1,100 Künstlern berücksichtigt, Unterstützung erhielt man außerdem von der Illustratorin Karla Ortiz aus San Francisco.

Wie funktioniert Glaze?

Kurz gesagt "überzieht" Glaze Bilder mit unsichtbaren Filtern. Für das menschliche Auge sind die Veränderungen nicht sichtbar. Auf Pixel-Ebene aber – die für generative KIs wie Stable Diffusion entscheidend ist – werden Änderungen eingebaut, um der KI ein anderes Bild "vorzugaukeln". So könnten beispielsweise die "Farbkleckse eines Jackson Pollock" imitiert werden, obwohl sich am sichtbaren Endergebnis nichts geändert hat, schreibt die "New York Times". Im Test erwies sich "Glaze" als durchaus erfolgreich bei der Verschleierung: Ortiz’ Bilder, mit dem entsprechenden Filter überzogen, konnten von einem Bildgenerator nicht imitiert werden. Stattdessen erstellte das Programm "hybride" Bilder – aus ihrem eigenen Stil und jenem von Jason Pollock, der im Versuch als Glaze-Filter-Vorlage diente.

Ähnliche Mechanismen kamen bereits bei dem Programm "Fawkes" zum Einsatz, mit dem Gesichtserkennung unterbunden werden kann. Auch dieses Tool wurde an der Universität von Chicago entwickelt.

Eine Übergangslösung

"Wir sind Pragmatiker", sagt Professor Zhao im Interview mit der "NYT", "bis es die entsprechenden Gesetze, Vorschriften und Richtlinien gibt, wird es vermutlich noch lange dauern. Mit unserer Lösung versuchen wir, diese Lücke zu füllen." Bis dahin müssen Kunstschaffende selbst rechtliche Schritte einleiten, wenn sie ihre Rechte verletzt sehen. Wie im Fall von Karla Ortiz, die gemeinsam mit zwei anderen Künstlerinnen im vergangenen Monat eine Sammelklage wegen Urheberrechtsverletzung gegen Firmen mit kunstgenerierenden Services eingereicht hat – darunter auch Stability AI, die den Text-zu-Bild-Generator Stable Diffusion geschaffen hat. Damit ist sie nicht allein: die Bildagentur Getty Images hat Stability AI bereits Mitte Jänner für die unrechtmäßige Verwendung seiner Inhalte verklagt. Zu einer Lösung ist man bisher nicht gekommen. "Wir prüfen die Dokumente und werden entsprechend reagieren", heißt es seitens des Unternehmens. "Wir beabsichtigen, uns selbst und das enorme Potenzial, mit der generative KI die Kreativität der Menschen erweitern kann, zu verteidigen."

Mögliche Zukunftsszenarien

Die naheliegende Lösung ist freilich ein entsprechendes rechtliches Rahmenwerk, das die Werke von Künstlerinnen und Künstlern auch dann als rechtliches Eigentum ansieht, wenn sie zum Training von generativen KIs genutzt werden. Oft mangelt es den Kunstschaffenden aber an den finanziellen Ressourcen, um sich gegen große Tech-Unternehmen zu behaupten. Mit Kampagnen wie "GoFundMe", einer Initiative der NGO Concept Art Association, soll dem entgegengewirkt werden. In dem konkreten Beispiel sollen mit den gesammelten Spenden Lobbyisten eingesetzt werden, die im Kongress für die Interessen der Kunstschaffenden werben und so letztendlich eine Anpassung der Rechte auf persönliches Eigentum bewirken.

Entlohnungssysteme oder Anonymisierung?

Auch Lösungen, bei denen Künstlerinnen und Künstler auf vertraglicher Basis dafür entschädigt werden, dass ihre Bilder in KI-Generatoren zum Einsatz kommen, sei denkbar, meint Raymond Ku, Professor für Urheberrecht von der Case Western Reserve University. Letztendlich wäre auch eine Entfernung der Namen aus den Datensets eine Möglichkeit, um dem digitalen Diebstahl einen Riegel vorzuschieben. KIs können die Stile einer Person imitieren, weil sie deren Namen kennen und ihn mit bestimmten Bildern in Verbindung bringen, sagt Andy Baio, Autor und Technologieexperte, der sich mit den Trainingsdaten von Stable Diffusion auseinandergesetzt hat. Ohne den Namen ist auch der Stil nicht mehr ohne weiteres kopierbar. Im Fall von Greg Rutkowski ist dies bereits geschehen: In einer neuen Version von Stable Diffusion, die vergangenen November veröffentlicht wurde, war dessen Name nicht mehr als "Prompt" (Textbegriffe, mithilfe derer Bildgeneratoren ihre Ergebnisse erstellen) verfügbar. Findige User fanden aber rasch Wege, um das Modell neu anzulernen und diesen Trick zu umgehen. Bis sich also eine praktikable Lösung findet, werden Kunstschaffende auf den Einsatz von Tools wie Glaze angewiesen sein. (Lisa Haberkorn, 15.2.2023)