Gestern stieß ich zufällig auf eine Diskussion auf Instagram, in der sich Künstler darüber beschwerten, dass KI ihre Werke unerlaubt zum Training nutzt – also praktisch stiehlt. Ausgehend von meinem Bauchgefühl und meinen Erfahrungen mit generierten Bildern fragte ich nach, was genau unter „stehlen“ verstanden wird. Ehrlich gesagt erwartete ich eher Aussagen darüber, dass Künstler – insbesondere jene, die mit ihrer Kunst kein Geld verdienen – sich darüber ärgern, dass ihre Werke durch KI mühelos nachgeahmt werden können und dies eher als „Entehrung“ denn als tatsächlichen Diebstahl empfinden.
Viele Kommentare brachten auch wenig Klarheit. Es klang oft mehr nach verletztem Stolz als nach einer fundierten technischen Einschätzung. Doch dann verwies mich Justin Kolfertz auf ein sehr interessantes englisches Video von Alex O’Connor. Das Video ist zwar philosophisch gehalten, doch die zugrunde liegende Logik inspirierte mich zu eigenen Tests.
Meine Ausgangsbilder:
Meine Tests
Zunächst bat ich ChatGPT um ein Bild eines blauen Pferdes von Franz Marc. Das Ergebnis überraschte mich: Abgesehen von der Farbgebung hatte es nur wenig mit Marcs Stil gemeinsam. Von einer Kopie konnte keine Rede sein.
Dann stellte ich eine andere Anfrage: „Ein Sternenhimmel über einem Dorf im Stil von Van Gogh“. Hier sah es anders aus: Die generierte Version ähnelte Sternennacht deutlich. Einige Abweichungen waren vorhanden, doch allein die Tatsache, dass die charakteristischen Zypressen auftauchten – obwohl ich nicht danach gefragt hatte – sprach Bände.
Ich bat ChatGPT darum, sich weniger am Original zu orientieren. Das Ergebnis war zwar anders, aber noch immer sehr stark von Van Goghs Werk inspiriert – inklusive der Position von Mond und Sternen, des Kirchturms und der Zypressen.
Gut, ich hatte explizit nach einer „Kopie“ gefragt. Was passiert, wenn ich eine andere Formulierung wähle? Ich forderte ein „blaues Pferd im Stil von Van Gogh“ an – in einem neuen Chat, um vorherige Eingaben auszuschließen. Das Resultat war verblüffend: Ein Pferd vor einer Kulisse, die stark an Sternennacht erinnerte, inklusive des angedeuteten Kirchturms und der Zypressen. Ehrlich gesagt: Ich war schockiert.
Also versuchte ich es erneut und bat darum, das Pferd in eine US-Stadt bei Tag zu platzieren. Doch der Einfluss von Sternennacht war weiterhin deutlich. Besonders auffällig: Die Stadt-Elemente wirkten stilistisch abweichend, als hätte sich die KI bemüht, aber keinen einheitlichen Stil gefunden.
Als ich korrigierte, dass es sich immer noch um einen Nachthimmel handelte, wurde einfach der Mond durch eine Sonne ersetzt – die Anordnung am Himmel blieb jedoch fast identisch. Bewegen wir uns hier im Bereich des Diebstahls? Ich finde schon. Nun sind Van Goghs Werke gemeinfrei, was die rechtliche Lage entspannt und ChatGPT könnte dies nutzen. Doch auch Blaues Pferd I ist gemeinfrei – und dennoch hielt sich ChatGPT hier nur grob an Marcs Stil.
Der spannende Teil:
Meine erste Anfrage nach einem „Nachthimmel über einem Dorf im Stil von H.R. Giger“ – dessen Werke nicht gemeinfrei sind – führte zu einer generierten Illustration. Dabei war der Stil von Giger klar getroffen, doch mir war kein Originalbild bekannt, das als direkte Vorlage gedient haben könnte und auch Google Lens hat mich jetzt nicht auf etwas gestoßen das mich direkt „Kopie“ denken ließ. Ob ChatGPT sich hier bei einem anderen Künstler bediente und wie ähnlich die Bilder tatsächlich sind, bleibt unklar.
Ein weiterer Versuch: Ein Nachthimmel im Stil von Frida Kahlo. Meines Wissens nach hat Kahlo solche Bilder nie gemalt, und ihre Werke sind erst seit diesem Jahr gemeinfrei. Hier weigerte sich ChatGPT mit Verweis auf die Content-Richtlinien. Auch eine erneute Anfrage im Giger-Stil wurde abgelehnt. Offenbar gibt es also gewisse Sicherheitsmechanismen.
In einem separaten Dialog bat ich um einen „expressionistischen Nachthimmel über einem Dorf“ – ohne einen Künstlernamen zu nennen. Wieder erhielt ich eine deutliche Kopie von Sternennacht, inklusive der Zypressen. Es ist also nicht zwingend notwendig, den Namen eines Künstlers einzugeben, damit sein Bild zu großen Teilen kopiert wird.
Betrifft das nur gemeinfreie Werke? Nein! Eine Beschreibung des berühmten Aliens aus H.R. Gigers Filmdesigns – ohne seinen Namen zu erwähnen – führte zu einer eindeutigen Darstellung eben dieses Wesens. Eine Google Lens-Suche ergab sogar eine klare Übereinstimmung mit einer existierenden Vorlage hinsichtlich Farbgebung und Körperhaltung. Aus Copyright-Gründen binde ich das Bild hier nicht ein.
Fazit:
ChatGPT lernt nicht wie ein Mensch, der sich inspirieren lässt. Vielmehr ist erkennbar, dass Elemente und ganze Bilder kopiert und nur leicht abgewandelt werden. Dabei ist nicht einmal der Künstlername erforderlich, um eine Nachbildung zu erzeugen. Die Sorgen der Künstler sind also berechtigt: Wenn ihre Werke gegen ihren Willen zum Training einer KI verwendet werden, kann diese anschließend Kopien ihrer Arbeiten ausgeben.
Ob dies nur auf ChatGPT/DALL·E zutrifft, kann ich aktuell nicht beantworten. Hast du Interesse, dass ich auch Midjourney oder eine andere KI untersuche? Schreib mir!
Update: FLUX.1 macht es besser!
Nachdem ChatGPT mir deutlich gezeigt hat, wie nah es am jeweiligen Vorbild arbeitet – selbst bei Prompts, die den Namen des Künstlers nicht enthalten – habe ich auch meine lokale Installation von FLUX.1 getestet.
Das Ergebnis des blauen Pferdes ist nur insofern erwähnenswert, als dass die KI den Stil von Franz Marc noch weniger trifft als ChatGPT – er wird kaum erkannt, geschweige denn ansatzweise wiedergegeben.
Wesentlich spannender hingegen ist die Umsetzung von Sternennacht.
Mit Namen des Künstlers
Ohne Namen des Künstlers
Auch die H.R. Giger-Aliens waren keine bloße Kopie des Filmmonsters, sondern kreative – wenn auch eher schwache – Neuinterpretationen der Beschreibung.
Trotz des Versuchs, eine möglichst genaue Kopie des bekannten Alien-Designs zu erzeugen, lieferte FLUX.1 keine exakte Nachbildung. Stattdessen entstanden eigenständige Varianten, die lediglich an das Original erinnern.
FLUX.1 hat hierbei weiterhin mit einigen Problemen zu kämpfen – vor allem mit Körperteilen, die nicht direkt am Körper angebracht sind. Dieses Problem zeigt sich auch bei der Erstellung von Fotos mit Menschen.
Bleibt die finale Frage: Kann FLUX.1 ein randvolles Glas Wein darstellen? Leider lautet die Antwort: nein.
Selbst bei sehr präzisen Prompts wird das Glas nie vollständig bis zum Rand gefüllt. Gelegentlich entstehen zwar Varianten, die näher an der gewünschten Darstellung liegen und über die übliche Füllmenge hinausgehen – doch dabei handelt es sich eher um zufällige, nicht reproduzierbare Abweichungen.
Auch Leonardo.ai ist eher nur inspiriert
Auch bei Leonardo.ai sehe ich keine Problem. Gibt man den Künstler an bekommt man zwar klar etwas das von seinem Werk inspiriert ist – inklusive Zypressen – aber keine nahezu 1:1-Kopie.
Ein rein expressionistisches Bild bringt dann auch wieder eine freiere Interpretation des Prompts ohne sich nur bei van Gogh zu bedienen.